100% ont trouvé ce document utile (1 vote)
3K vues261 pages

L' Intelligence Artificielle

Technologie

Transféré par

livresnumeriques7
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
3K vues261 pages

L' Intelligence Artificielle

Technologie

Transféré par

livresnumeriques7
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 261

Collection « Questions de société » dirigée par Olivier MEIER

L’intelligence artificielle décryptée


Comprendre les enjeux et risques éthiques de l’IA pour
mieux l’appréhender
Kathleen DESVEAUD

136 boulevard du Maréchal Leclerc


14000 CAEN
© 2024. EMS Editions
Tous droits réservés.
www.editions-ems.fr
ISBN : 978-2-37687-961-9
(Versions numériques)
SOMMAIRE
Introduction
Chapitre 1. L’automatisation et les débuts de l’IA
1. Définition et naissance de l’IA
2. Les débuts de l’IA en pratique
3. Les premières inquiétudes liées au développement de l’IA
Chapitre 2. La révolution du machine learning
1. Machine learning et réseaux de neurones
2. Les trois ruptures qui ont permis cette révolution du machine learning
3. Du machine learning au deep learning
4. Le problème du manque d’interprétabilité
Chapitre 3. Une course à l’IA vers un oubli de la morale ?
1. En route vers une IA générale ?
2. OpenAI & GPT
3. Mauvaise qualité des données et IA biaisées
4. Un risque d’oubli de la vie privée
Chapitre 4. Des remises en question sociétales importantes
1. Nouveaux rapports de forces géopolitiques et enjeux démocratiques
2. Les enjeux moraux et éthiques des IA
3. Gouvernance des données et réglementation de l’IA
4. Repenser les organisations et les pratiques
Conclusion
Bibliographie
INTRODUCTION
Régulièrement, de nouveaux produits ou services élaborés à partir
d’intelligence artificielle (IA) arrivent sur le marché, avec des algorithmes
toujours plus performants, qui portent en eux la promesse de rendre notre
quotidien plus confortable et agréable. Le développement de ces technologies de
pointe a donné lieu à de véritables révolutions dans de nombreux secteurs. C’est
le cas par exemple de la santé, où des intelligences artificielles de plus en plus
sophistiquées jouent progressivement un rôle majeur dans la prévention des
maladies, en offrant des diagnostics plus personnalisés, ce qui contribue à une
prise en charge médicale améliorée des patients. Parmi les applications les plus
prometteuses, on trouve les IA de reconnaissance automatique d’image, utilisées
pour identifier des pathologies telles que les cancers de la peau ou les cancers
des poumons notamment. On trouve également un grand nombre d’applications
d’intelligence artificielle dans le domaine du sport, des loisirs ou même dans
l’art, avec le développement d’IA génératrices de contenu, qui proposent des
résultats très impressionnants quand il s’agit d’écrire du texte, de générer des
images ou encore des vidéos. Évidemment, l’exemple le plus marquant de ce
type d’IA est ChatGPT, qui a récemment fait sensation grâce à sa capacité à
générer du texte de manière fluide et précise, le tout via une interface
extrêmement intuitive. Dans un autre registre, la voiture autonome est également
fréquemment mise en avant pour illustrer l’impact bénéfique que pourrait avoir
l’IA sur nos vies. Fini les longues heures passées au volant, les erreurs de
conduite et les accidents liés à des fautes d’inattention. La voiture autonome
promet de révolutionner nos modes de déplacement et de faciliter
considérablement nos trajets quotidiens. Parallèlement, le développement des
assistants vocaux est déjà en train de transformer nos habitudes et modes de vie.
Les progrès incroyables dans le domaine du traitement du langage nous
permettent désormais de parler directement à une enceinte connectée pour
acheter en ligne ou même pour gérer des tâches complexes comme la
planification d’un rendez-vous ou l’organisation d’un voyage. De même, les
systèmes de recommandation basés sur de l’IA simplifient notre quotidien en
nous orientant efficacement vers des choix en adéquation avec nos préférences et
centres d’intérêt, que ce soit pour sélectionner des films à regarder, écouter de la
musique ou effectuer des achats. En reliant directement ces recommandations
personnalisées à l’amélioration des produits et services, l’utilisation de
l’intelligence artificielle contribue à la création d’offres toujours plus
sophistiquées, sur-mesure et adaptées à nos besoins. C’est un constat que nous
pouvons tous dresser à notre échelle individuelle et qui témoigne de l’impact
profond et positif de l’IA sur notre quotidien.
Du point de vue des entreprises, l’IA est également perçue comme étant source
de croissance et d’innovation. L’adoption de solutions basées sur de
l’intelligence artificielle offre une multitude d’avantages, transformant les
méthodes de travail et les stratégies d’entreprise. Par exemple, l’IA permet
d’automatiser certains processus métier, ce qui rend les opérations plus efficaces
et réduit considérablement les coûts. Elle joue également un rôle crucial dans
l’analyse de grandes quantités de données, en permettant aux entreprises
d’extraire des informations pertinentes et de prendre des décisions « éclairées ».
De plus, l’intelligence artificielle ouvre la porte à de nouvelles opportunités
d’innovation, via le développement de produits et services plus intelligents et
personnalisés, améliorant ainsi l’expérience client. L’IA se révèle être un outil
puissant qui permet des applications aussi utiles que fascinantes, susceptibles de
nous assister tant dans notre vie quotidienne que professionnelle.
Ce n’est donc pas pour rien que l’intelligence artificielle occupe une place de
choix dans l’actualité et les discussions contemporaines. Cet engouement pour
l’IA a connu une accélération notable ces derniers mois, particulièrement avec la
sortie du célèbre modèle de langage ChatGPT par OpenAI en novembre 2022.
Cet événement a suscité un vif intérêt médiatique, plaçant l’intelligence
artificielle plus que jamais au cœur des débats économiques et technologiques.
En effet, ce modèle de langage avancé a créé un véritable buzz et a ainsi mis un
réel coup de projecteur sur l’intelligence artificielle auprès du grand public.
Étant donné son potentiel certain, l’IA attire aujourd’hui d’importants capitaux,
provenant aussi bien du secteur public que privé. Les géants du numérique en
particulier, investissent des sommes colossales dans le développement et la
recherche en IA, attirant à eux les plus grands talents de la planète. L’intelligence
artificielle est sans conteste un sujet d’actualité très tendance, qui semble déjà
révolutionner nos façons de faire, de travailler et de vivre. Cependant, ces
avancées en matière d’IA ne sont pas exemptes de conséquences et d’effets
potentiellement indésirables. Elles engendrent une multitude d’implications et de
risques qui nécessitent une attention sérieuse et une réflexion approfondie. Pour
aborder ces questions de manière éclairée, sans céder aux fantasmes ou aux idées
préconçues, une compréhension claire et précise du fonctionnement réel des IA
qui nous entourent s’impose. C’est précisément l’objectif de cet ouvrage.
En offrant un historique ainsi qu’une explication à la fois détaillée et accessible
des principes de fonctionnement des intelligences artificielles, ce livre vise à
vous aider à mieux saisir comment ces systèmes peuvent engendrer des risques
significatifs et soulever des enjeux majeurs pour notre société. Pour cela,
l’ouvrage est structuré en quatre chapitres principaux.
Dans le premier chapitre, nous aborderons l’histoire de l’automatisation et les
premiers pas de l’intelligence artificielle. Nous définirons plus précisément ce
concept d’IA, retracerons son histoire et explorerons d’autres éléments connexes
tels que l’algorithmie, l’automatisation et les systèmes experts. Nous
examinerons les projets pionniers du domaine de l’IA, tout en montrant que des
inquiétudes ont émergé dès les premières phases de développement de ces
technologies. Nous nous pencherons notamment sur les premières craintes
observées, qui concernent la disparition progressive de certains métiers et une
dépendance accrue envers ces technologies.
Dans le deuxième chapitre nous évoquerons la deuxième phase de l’IA qui a
été marquée par la révolution du machine learning dans les années 1990. Notre
attention se portera sur le fonctionnement particulier des réseaux de neurones,
mais aussi sur le rôle clé de trois grandes ruptures qui ont permis cette
révolution, à savoir le Big Data, la capacité de calcul augmentée et le
développement de nouveaux algorithmes plus sophistiqués. Nous évoquerons les
premiers succès significatifs du machine learning et du deep learning, en
particulier avec l’essor des réseaux de neurones profonds. Nous explorerons les
applications extraordinaires rendues possibles par ces technologies, que ce soit
dans les secteurs de la santé, du sport, de l’art, de la justice et bien d’autres. Mais
nous verrons également que ce développement du machine learning et du deep
learning apporte avec lui des failles structurelles qui posent question. Ces
méthodes soulèvent notamment des enjeux d’interprétabilité et d’explicabilité,
étant donné l’opacité de ces nouveaux algorithmes qui, nous le verrons,
constituent de véritables « boîtes noires ».
Dans le troisième chapitre, nous irons plus loin, en montrant comment
aujourd’hui, alors que les technologies de deep learning se développent et se
démocratisent, les différents acteurs mènent une véritable course à l’IA, « quoi
qu’il en coûte ». Nous verrons en quoi « ce quoi qu’il en coûte » pose des vrais
problèmes et risques. Cette course effrénée est aujourd’hui en grande partie axée
sur le développement d’une IA dite « générale », qui commence à prendre forme,
notamment grâce aux avancées impressionnantes réalisées dans le domaine du
traitement du langage. Nous soulignerons les dangers potentiels de cette course à
l’IA, qui peut inciter certains géants de la tech à négliger des considérations
éthiques essentielles. De plus, cette volonté de développer des algorithmes d’une
envergure et d’une puissance sans cesse croissantes conduit à la création de
systèmes qui, potentiellement dangereux, ne respectent pas toujours la vie privée
et peuvent se montrer discriminatoires voire même stigmatisants.
Enfin, dans le dernier chapitre, nous prendrons un peu plus de hauteur, en
évoquant les remises en question sociétales majeures induites par le
développement des intelligences artificielles. Nous discuterons du
bouleversement des dynamiques de pouvoir, avec l’importance croissante des
GAFAM (Google, Amazon, Facebook – récemment renommée Meta –, Apple,
Microsoft), et des enjeux géopolitiques qui en découlent. Nous réfléchirons à
l’impact de l’IA sur notre société dans son ensemble, notre planète et même nos
valeurs et principes éthiques. Nous montrerons en quoi il est primordial
d’encadrer ces développements de l’IA avec un encadrement juridique approprié
et sous quelles formes celui-ci pourrait être mis en place. Enfin, nous
explorerons comment l’IA nous pousse à repenser nos organisations, nos
pratiques, notre relation à ces technologies et la place que nous souhaitons leur
attribuer dans nos sociétés.
Vous l’aurez compris l’ambition de ce livre est de vous fournir une culture
solide de l’IA, en vulgarisant une panoplie de définitions et de termes
techniques, le tout, en vous sensibilisant aux enjeux éthiques et aux risques liés à
ces développements technologiques, tels que la question des libertés
individuelles, les risques des IA biaisées, l’importance de la vie privée, les
enjeux moraux, légaux et démocratiques, et ainsi de suite. L’objectif de ce livre
est de vous encourager à vous approprier ces sujets, en démystifiant leur aspect
technique. À la fin de ce livre, notre espoir n’est pas de faire de vous des experts
en IA, mais plutôt de vous ouvrir l’esprit, de vous questionner, d’avoir une
certaine prise de conscience autour de ces sujets, de maîtriser et de comprendre
les concepts principaux afin d’avoir suffisamment de bagage pour mieux
affronter les questionnements éthiques liés au développement des intelligences
artificielles. L’IA est l’affaire de tous, et en tant que citoyen, nous nous devons
de prendre part à ces discussions fondamentales autour du développement des IA
qui impactent fortement nos vies.
CHAPITRE 1. L’AUTOMATISATION ET LES
DÉBUTS DE L’IA
1. DÉFINITION ET NAISSANCE DE L’IA

1.1. Premières définitions de l’IA


Le concept d’intelligence artificielle est aujourd’hui familier à la plupart
d’entre nous, mais saviez-vous que ses origines remontent à plus de 70 ans ?
Pour saisir pleinement la nature de l’IA, il est nécessaire de retracer son
évolution historique et d’examiner brièvement comment ce concept est apparu et
s’est développé au fil du temps. Dans les années 1950, John McCarthy proposait
la première définition de l’histoire pour parler de l’IA : « Des systèmes qui
effectuent des actions qui, si elles étaient effectuées par des humains, seraient
considérées comme intelligentes. » (McCarthy et al., 2006) À cette époque,
l’ambition qui motivait ce tout nouveau concept d’intelligence artificielle était
ainsi de reproduire l’intelligence humaine par des moyens artificiels et de
simuler ainsi les capacités cognitives de l’être humain.
Dans leur effort pour définir l’IA, John McCarthy et ses collègues du
Dartmouth Summer Research Project ont identifié sept aspects clés afin de
cerner les contours du concept et de ses applications (McCarthy et al., 2006) :
1.Être capable de simuler les plus hautes fonctions du cerveau humain ;
2.Programmer un ordinateur pour utiliser le langage ;
3.Arranger des neurones hypothétiques afin qu’ils puissent former des
concepts ;
4.Être capable de déterminer et mesurer la complexité d’un problème ;
5.Travailler sur une machine capable de s’améliorer elle-même ;
6.Avoir une machine capable d’abstraction, autrement dit capable de travailler
avec des idées et pas seulement des évènements ;
7.Avoir une machine créative.
À cette époque, on remarque aisément que lorsque les chercheurs ont tenté de
définir l’intelligence artificielle, ils l’ont systématiquement comparée à
l’intelligence humaine. Le choix du terme « intelligence » n’était clairement pas
anodin. Il traduisait un positionnement idéologique selon lequel le
fonctionnement du cerveau humain pourrait être réduit à des principes et des
logiques mathématiques automatisables, susceptibles d’être reproduits dans une
machine. Ainsi, pour cerner et définir les contours de l’IA, il a été indispensable
d’explorer ceux de notre propre intelligence. Cette définition de l’IA est
pratique, car elle englobe un vaste éventail d’aspects et de tâches, notre
intelligence étant complexe et multifacette. Toutefois, cette approche soulève un
défi de taille : elle présuppose l’existence d’un consensus sur une définition
unique de l’intelligence humaine, ce qui est loin d’être une évidence.

1.2. Définition de l’intelligence humaine


L’intelligence artificielle, telle qu’elle était envisagée dans les années 1950,
posait donc la question de savoir définir l’intelligence humaine. Cette question
est complexe car il n’existe pas de définition unique de l’intelligence. Par
exemple, l’intelligence est-elle un synonyme de capacités de logique ? Y a-t-il
un rapport avec la conscience ou la volonté propre ? Faut-il inclure également
toutes les facultés liées à la créativité, les émotions ou les compétences sociales,
lorsque l’on parle d’intelligence ?
L’intelligence peut prendre une multitude de définitions différentes, selon qui
cherche à la définir. Psychologues, sociologues, biologistes, neurologues ou
philosophes ne s’accordent pas sur une vision unique de l’intelligence.
Néanmoins, quel que soit le domaine d’expertise impliqué, l’intelligence est
systématiquement considérée comme étant multidimensionnelle. En particulier,
l’intelligence a une dimension cognitive, mais aussi émotionnelle et sociale par
exemple. Le psychologue Howard Gardner a mis en évidence la complexité de
l’intelligence avec sa théorie des multiples intelligences (Gardner, 2000). Bien
que d’autres théories existent pour décrire l’intelligence et que la théorie de
Gardner ne fasse pas nécessairement l’unanimité parmi les scientifiques, elle
illustre bien la variété et la diversité des différents types d’intelligence que l’on
peut potentiellement identifier chez l’homme (voir Figure 1).
Figure 1. Les neuf types d’intelligence d’après Howard Gardner
Source : autrice ; pictogramme du visage issu de Flaticon.com
Au total, Howard Gardner distingue neuf types d’intelligence (Gardner, 2000) :
• L’intelligence intrapersonnelle : Cette forme d’intelligence concerne la
capacité à se connaître soi-même, à être à l’écoute de ses ressentis et besoins.
Elle implique l’aptitude à réaliser de l’introspection, analyser ses sentiments,
et prendre conscience de ses capacités, désirs et limites.
• L’intelligence naturaliste : Cette forme d’intelligence englobe la capacité à
s’intéresser à son environnement naturel. Elle permet d’observer, connaître et
reconnaître la nature environnante, la faune et la flore. Elle implique une
certaine sensibilité aux caractéristiques de l’environnement, telles que les
sons, les odeurs ou les éléments visuels.
• L’intelligence interpersonnelle : Cette forme d’intelligence concerne la
capacité à interagir avec autrui et à nouer facilement des relations. Elle
suppose une aptitude à écouter et comprendre les autres, ainsi que leurs
intentions, tout en faisant preuve d’empathie et de coopération.
• L’intelligence musicale : Cette forme d’intelligence englobe la capacité à être
sensible aux sons, mélodies et rythmes. Elle implique l’aptitude à mémoriser,
comprendre et créer des modèles musicaux. Les personnes ayant l’oreille
absolue, par exemple, possèdent une intelligence musicale élevée.
• L’intelligence spatiale : Cette forme d’intelligence concerne la capacité à
avoir des représentations mentales et spatiales du monde. Elle suppose une
aptitude à visualiser les objets, les formes, et leur position dans l’espace. Les
personnes avec un niveau d’intelligence spatiale important ont souvent un
bon sens de l’orientation ou un bon sens de la perspective.
• L’intelligence logico-mathématique : Cette forme d’intelligence concerne la
capacité à mener des raisonnements, résoudre des problèmes par
enchaînement logique. Elle implique une bonne capacité d’analyse, de
conceptualisation, de déduction et d’abstraction. Ce type d’intelligence est
généralement bien développé chez les mathématiciens et ingénieurs.
• L’intelligence corporelle-kinesthésique : Cette forme d’intelligence concerne
la capacité à utiliser son corps de manière fluide et à contrôler ses
mouvements. Elle suppose une capacité à savoir s’exprimer à travers le
mouvement et à être habile avec les objets. Ce type d’intelligence est plutôt
développé chez les bons danseurs ou les chirurgiens, par exemple.
• L’intelligence existentielle : Cette forme d’intelligence concerne la capacité à
appréhender le sens et la raison d’être des choses, et à se questionner sur sa
destinée. Cela suppose un certain éveil philosophique et spirituel mais aussi
implique un sens de la justice et des valeurs éthiques.
• L’intelligence verbo-linguistique : Cette forme d’intelligence concerne la
capacité à comprendre et manier le langage. Elle suppose une capacité à
comprendre les mots, les nuances des phrases, mais aussi une capacité
d’expression importante. On trouve ce type d’intelligence chez les écrivains
ou poètes, par exemple, qui sont sensibles à la forme et au sens des mots.
En comprenant ces multiples facettes de l’intelligence, on saisit aisément à
quel point la mission d’élaborer une intelligence artificielle capable de répondre
à ces différentes dimensions est complexe et remplie de défis.

1.3. Des définitions plus récentes de l’IA


Au cours de l’histoire, les définitions de l’intelligence artificielle ont
progressivement évolué, notamment en raison des questionnements grandissants
sur la pertinence d’une comparaison entre l’intelligence humaine et l’intelligence
artificielle. La richesse du cerveau humain, avec sa myriade de neurones
interconnectés et son équilibre délicat entre divers éléments chimiques et
électriques, surpasse les simples logiques mathématiques qui peuvent être
automatisées. De plus, l’intelligence humaine ne se limite pas à la résolution de
problèmes ; elle englobe aussi des facultés telles que l’empathie, l’intuition et la
conscience de soi, qui sont pour l’instant hors d’atteinte pour les algorithmes
actuels. Cette prise de conscience a amené à une redéfinition de l’IA, qui n’est
plus perçue comme une simple duplication de l’intelligence humaine, mais
plutôt comme un ensemble d’outils capables d’accomplir de manière autonome
des tâches spécifiques.
Actuellement, l’IA est surtout envisagée à travers ses nombreuses applications
pratiques : les recherches sur Google, la conduite autonome, l’usage
d’aspirateurs robots, l’écoute de playlists personnalisées, l’interaction avec des
publicités ciblées, l’achat en ligne via un assistant virtuel, et ainsi de suite. Ces
activités intègrent toutes une forme d’intelligence artificielle. Cependant, il
n’existe pas de consensus quant à la définition précise de l’IA, compte tenu de la
diversité des utilisations et des approches théoriques. Ainsi, le Parlement
européen se rapproche de la définition originale en considérant l’IA comme étant
« la possibilité pour une machine de reproduire des comportements liés aux
humains, tels que le raisonnement, la planification et la créativité » (Parlement
européen, 2021). Le Larousse offre une définition similaire, décrivant l’IA
comme « un ensemble de théories et de techniques mises en œuvre en vue de
réaliser des machines capables de simuler l’intelligence humaine »1.
On trouve également des définitions qui adoptent une perspective plus
générale, sans se focaliser nécessairement sur la reproduction de l’intelligence
humaine. L’IA est souvent définie comme un domaine de recherche scientifique
englobant plusieurs sous-domaines tels que le machine learning, le traitement du
langage naturel (NLP), la vision par ordinateur, la robotique, etc. Dans certaines
définitions, l’IA est exclusivement associée aux systèmes basés sur
l’apprentissage automatique, notamment en raison de l’essor récent de ce
domaine qui a ravivé l’intérêt pour l’IA (LeCun, 2019). Pour certains, l’IA est
considérée comme une branche des sciences cognitives, tandis que pour d’autres,
elle relève du domaine de l’informatique (Zaraté, 2021). En France, le ministère
de la Culture définit l’IA comme un « champ interdisciplinaire théorique et
pratique qui a pour objet la compréhension de mécanismes de la cognition et de
la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins
d’assistance ou de substitution à des activités humaines »2.
Afin de mieux saisir la diversité des approches, la Commission européenne
présente dans un rapport de 2020 intitulé AI Watch: Defining Artificial
Intelligence (Samoili et al., 2020), une taxonomie de l’ensemble des définitions
existantes de l’IA. Les auteurs du rapport comparent notamment près de 55
définitions différentes. Pour certains spécialistes, comme Luc Julia, le
cofondateur de Siri, on ne devrait même pas parler d’« intelligence artificielle »
(Julia, 2019). Selon lui, aussi avancées soient-elles, les machines telles qu’elles
sont développées aujourd’hui n’ont rien à voir avec l’intelligence. En effet, ces
technologies se basent sur des algorithmes et des données pour simuler des
réponses ou des comportements, sans réelle capacité de réflexion ou de
compréhension. Ainsi, pour Julia, il s’agit plus de systèmes automatisés et
sophistiqués que d’entités véritablement intelligentes.
Il est également intéressant de souligner que la perception de ce qui constitue
de l’« intelligence artificielle » évolue avec le temps, et que ce qui était
considéré comme de l’IA hier ne l’est pas forcément aujourd’hui. Par exemple, si
l’on avait présenté un smartphone aux chercheurs des années 1950, ils l’auraient
sans nul doute considéré comme une manifestation révolutionnaire de
l’intelligence artificielle, en raison de ses capacités de calcul, de communication
et d’interaction avec l’utilisateur, qui dépassent de loin celles des technologies de
l’époque. De nos jours, en revanche, nous ne percevons pas nécessairement nos
téléphones en tant qu’objets incarnant l’IA, bien qu’ils intègrent des
technologies avancées et des fonctionnalités sophistiquées. Cette évolution dans
la perception de l’IA met en lumière non seulement le caractère évolutif de la
définition, mais également les progrès accomplis au fil des années. Elle souligne
aussi l’adoption croissante des technologies d’IA dans notre vie quotidienne,
rendant ainsi certaines applications de l’IA moins extraordinaires et plus
familières. En outre, le contexte joue également un rôle clé dans l’attribution du
terme « IA » à une technologie, en particulier dans l’industrie. L’intelligence
artificielle attirant d’importants investissements, certaines technologies sont
parfois étiquetées comme étant de l’IA alors qu’elles n’en sont pas réellement. À
titre d’exemple, le Financial Times et le MMC Ventures3 révèlent que 40 % des
« start-up IA » en Europe n’utilisent pas réellement d’intelligence artificielle4.
Il est donc clair qu’il est difficile de définir précisément l’IA. Les définitions
varient et il n’y a actuellement pas de consensus scientifique sur une seule et
unique définition. Selon les contextes, l’IA peut avoir des significations
différentes et beaucoup critiquent l’utilisation du terme comme argument
marketing plutôt qu’une réalité tangible. Sur Twitter (X), certains développeurs
informatiques ont repris cette phrase assez révélatrice de ce phénomène :
« Quand on lève des fonds, on parle d’IA, quand on embauche, on parle
d’apprentissage automatique, et quand on fait effectivement le travail, on fait en
réalité une simple régression logistique5. » Beaucoup de mèmes circulent sur
Internet pour dénoncer cet aspect.
De nombreuses critiques portent sur le fait que de simples statistiques soient
appelées « IA » pour augmenter les ventes et attirer les investissements. Ces
dérives créent encore plus de confusion dans les tentatives de définition de l’IA.

1.4. Les diverses facettes de l’intelligence artificielle


Les variations dans les définitions de l’intelligence artificielle, mises en avant
par la Commission européenne dans son rapport (Samoili et al., 2020),
concernent principalement les différences dans les types de tâches résolues par
l’IA. Dans ce rapport publié en 2020, les auteurs proposent une taxonomie qui
classe les définitions selon diverses tâches réalisées, telles que le raisonnement,
l’apprentissage, la perception, et bien d’autres. Cette classification présente de
nombreuses similitudes avec celle proposée par le professeur Jack Copeland la
même année, qui vise à mieux distinguer les différentes facettes de l’intelligence
artificielle (Copeland, 2020). Ainsi, il identifie cinq catégories principales :
l’apprentissage généralisé, le raisonnement, la résolution de problèmes, la
perception et la compréhension du langage.
L’apprentissage généralisé renvoie à la capacité d’une machine à tirer des
leçons de diverses expériences afin de comprendre comment accomplir une
tâche spécifique. Dans ce contexte, le terme « expériences » désigne en réalité
un ensemble de données ou data avec lesquelles la machine est mise en
interaction. Ces données se composent de nombreux exemples de problèmes
accompagnés de leurs solutions qui permettent à l’IA de construire « sa propre
compréhension » d’un problème ou d’une question. À travers l’analyse de ces
données, l’IA apprend à reconnaître ce que l’on appelle des patterns, à savoir des
caractéristiques que l’on peut retrouver de façon récurrente dans les données.
Ceci va notamment permettre à l’IA de grouper des objets similaires entre eux et
d’identifier des tendances. L’apprentissage généralisé ne doit pas être confondu
avec l’apprentissage par cœur. Pour mieux comprendre la différence entre les
deux, prenons l’exemple des conjugaisons en anglais que l’on apprenait à l’école
primaire. Vous avez appris, entre autres, que le prétérit de learn était learned.
Très vite, vous avez sans doute réalisé qu’au prétérit, on ajoutait souvent la
terminaison -ed à la fin du verbe. Il s’agit là d’un pattern qui se répète et qui
vous permet de déduire que jump se dira probablement jumped au prétérit, même
si vous n’avez jamais appris la conjugaison de ce verbe auparavant. C’est
précisément cela, l’apprentissage généralisé. Une application concrète de cette
facette de l’IA, est la détection de fraudes sur Internet par exemple. La machine
va identifier les caractéristiques typiques d’une situation dans laquelle des
fraudes se produisent, et elle sera en mesure de lancer des alertes en cas de
fraudes probables.
La deuxième facette de l’intelligence artificielle proposée par Copeland (2020)
concerne le raisonnement. Il s’agit de la capacité d’une machine à tirer des
conclusions appropriées étant donnée une situation rencontrée. L’IA va être
capable de faire des déductions et des prédictions, en s’appuyant sur une logique
de causes à effets. Ceci passe bien souvent par la production de modèles
mathématiques permettant de comprendre et déceler une tendance générale.
Concrètement, il s’agit notamment des IA qui vont vous aider à prédire des
retours sur investissement ou à construire des modèles prédictifs qui peuvent
accompagner les managers dans la prise de décision. Prenons un exemple
concret pour mieux comprendre cet aspect. Imaginons que vous ayez à votre
disposition une liste de prospects contenant de nombreuses informations sur eux.
Vous connaissez leur âge, leurs préférences alimentaires, leur pays d’origine,
etc., ainsi que leurs achats passés d’un produit donné. En prenant en
considération ces caractéristiques, l’IA pourra évaluer la probabilité que ces
prospects soient intéressés par ce produit ou qu’ils l’achètent dans le futur par
exemple. Grâce aux données passées, elle va pouvoir faire des déductions et
comprendre quelles caractéristiques sont les plus saillantes pour expliquer
l’achat de vos consommateurs. Ceci peut être très utile pour faire de la publicité
ciblée, notamment en adaptant les messages en fonction des caractéristiques les
plus probantes de la cible.
La troisième facette de l’intelligence artificielle, telle qu’elle est définie par
Copeland (2020), concerne la résolution de problèmes, c’est-à-dire la capacité
d’une machine à identifier la meilleure solution possible face à un problème
spécifique. Par exemple, l’aptitude à trouver la solution d’une équation du
troisième degré ou encore à optimiser un planning de production dans une usine
peut être classée dans cette catégorie d’IA. Cependant, l’exemple le plus
marquant de cette facette de l’IA est probablement la capacité des machines à
déterminer les actions ou séquences d’actions nécessaires pour gagner un jeu.
Les jeux, avec leurs règles bien définies et leurs gagnants clairement déterminés
par les résultats, constituent un terrain d’application idéal pour cette facette de
l’IA. Un exemple historique bien connu est la victoire d’une IA sur le champion
du monde d’échecs, Garry Kasparov, en 1997. En calculant toutes les
combinaisons possibles à chaque coup de son adversaire, l’IA a su choisir les
meilleurs mouvements pour gagner la partie. Dans le monde professionnel, cette
facette de l’IA peut être utilisée pour optimiser les processus. Par exemple, elle
peut aider à trouver des moyens d’accroître l’efficacité énergétique ou
d’améliorer la chaîne d’approvisionnement. Les questions soulevées dans ce
contexte peuvent être considérées comme des problèmes que l’IA doit résoudre.
En étendant cette logique au domaine des jeux vidéo et des jumeaux virtuels par
exemple, on trouve un univers riche en opportunités pour la résolution de
problèmes par l’IA. Les jeux vidéo, avec leurs mondes immersifs et leurs
scénarios complexes, offrent un terrain de jeu idéal pour les algorithmes d’IA. Ils
peuvent être programmés pour analyser les comportements des joueurs,
optimiser les niveaux de difficulté, ou même créer des expériences
personnalisées. Les jumeaux virtuels, qui sont des répliques numériques
d’objets, de processus ou de systèmes réels, permettent de transposer des
problèmes du monde réel dans un environnement virtuel. Ainsi, l’IA peut être
utilisée pour simuler, analyser et résoudre ces problèmes dans un cadre contrôlé
avant de mettre en œuvre les solutions dans le monde réel. Cela ouvre de
nouvelles perspectives pour la résolution de problèmes complexes et améliore la
capacité de l’IA à contribuer de manière significative à divers domaines
d’application.
La quatrième facette de l’intelligence artificielle, selon Copeland (2020), est la
perception. Cette facette englobe la capacité des machines à analyser et interagir
avec leur environnement en identifiant les caractéristiques et les relations entre
les objets qu’elles observent. La perception de l’environnement comporte deux
dimensions principales. Premièrement, il y a la reconnaissance de
l’environnement, où l’IA est capable de « voir » et identifier les objets présents.
Cette compétence relève du domaine de la « vision par ordinateur » ou
« reconnaissance d’image », qui permet d’identifier automatiquement les objets
contenus dans une image. Deuxièmement, on trouve la capacité de la machine à
se déplacer et interagir avec l’environnement qu’elle analyse. C’est un aspect
largement développé en robotique, où les progrès récents ont permis d’aboutir à
des dispositifs capables de mouvements toujours plus précis, fluides et souples.
Un exemple remarquable est l’entreprise Boston Dynamics, dont les robots
bipèdes, tels que le robot humanoïde Atlas, sont conçus pour naviguer sur des
terrains difficiles. Les démonstrations mettant en scène ces robots ont mis en
lumière leur capacité à traverser des forêts enneigées tout en transportant des
objets6, à réaliser des parcours d’obstacles avec agilité et à aider un travailleur à
porter des objets lourds7. Les robots quadrupèdes de l’entreprise, comme Spot,
sont également très performants et ont été utilisés pour la surveillance et
l’inspection d’environnements dangereux ou difficiles d’accès8. Spot peut sans
difficulté se déplacer sur des terrains accidentés, monter des escaliers et même
danser. Ces avancées technologiques sont très prometteuses et il est probable que
nous verrons des développements encore plus impressionnants dans les années à
venir. Un exemple concret qui allie les deux dimensions de la perception – à
savoir, visualiser et se mouvoir dans l’environnement – est la voiture autonome.
Pour fonctionner, une voiture autonome doit être en capacité d’analyser son
environnement, de reconnaître si elle est face à un piéton, un lampadaire, un feu
rouge, un feu vert, etc. Mais elle doit également être capable d’agir en
conséquence et de se mouvoir correctement dans cet environnement qu’elle
perçoit. Elle doit être capable de s’arrêter face à un feu rouge, de laisser passer
un piéton qui traverse la route, ou d’accélérer lorsqu’elle s’insère sur une
autoroute par exemple.
La cinquième et dernière facette de l’intelligence artificielle proposée par
Copeland (2020) concerne la compréhension du langage. Il s’agit de la capacité
d’une machine à « comprendre » et manier le langage en suivant la syntaxe et en
saisissant la contextualisation des significations. Pour ce faire, l’IA utilise le
traitement du langage naturel, souvent désigné par l’acronyme anglais NLP pour
Natural Language Processing. Il s’agit d’un domaine en constante évolution, qui
a connu des avancées considérables ces dernières années. Un exemple marquant,
que nous aborderons plus en détail dans le chapitre 3, est ChatGPT, une IA qui a
su captiver le grand public grâce à sa capacité à générer du texte et à dialoguer
de manière cohérente et précise. Le NLP comporte deux principales
applications : d’une part, la compréhension automatique de texte, et d’autre part,
la génération automatique de texte. Aujourd’hui, des IA sont capables d’analyser
des textes et de les traduire automatiquement dans différentes langues par
exemple, comme c’est le cas avec la solution DeepL, un produit qui utilise
l’intelligence artificielle pour générer des traductions. D’autres exemples
incluent les systèmes de résumé automatique de textes, la détection de
sentiments dans les avis des consommateurs, ou encore l’extraction
d’informations clés à partir d’articles scientifiques. Quant à la génération
automatique de texte, certaines IA peuvent rédiger des articles, des rapports ou
des e-mails personnalisés en fonction des besoins de l’utilisateur. Le texte généré
peut être écrit ou oral grâce aux techniques de reconnaissance vocale (speech
recognition), qui permettent de reconnaître ce qui est dit, et de synthèse vocale
(speech generation), qui permettent à l’IA de parler. Ces technologies sont
typiquement présentes dans les assistants vocaux tels qu’Alexa, Google Home
ou Siri, qui exploitent la compréhension et la génération du langage pour
interagir avec les utilisateurs. De plus, les chatbots utilisent également le NLP
pour répondre aux questions des clients et les guider à travers les processus en
ligne, offrant ainsi un support client automatisé et personnalisé.

2. LES DÉBUTS DE L’IA EN PRATIQUE

2.1. L’IA des années 1950 et le test de Turing


Nous l’avons constaté, bien que l’intelligence artificielle soit un terme
particulièrement en vogue aujourd’hui, il ne s’agit pas d’un concept récent,
puisqu’il a vu le jour dès les années 1950. À cette époque de forte croissance
économique et d’optimisme, la communauté scientifique portait un intérêt
particulier au cerveau humain, cherchant à percer les mystères des mécanismes
d’apprentissage et de pensée. La question centrale était la suivante : « Les
machines peuvent-elles penser comme des êtres humains ? »
En 1956 s’est tenue la conférence de Dartmouth, intitulée Dartmouth Summer
Research Project on Artificial Intelligence. Cet événement fondateur a marqué le
début de la recherche en IA en posant les bases de la discipline et en donnant
naissance au terme lui-même (McCarthy et al., 2006). La conférence a réuni les
plus grands chercheurs du domaine, dont des personnalités clés considérées
comme les pères fondateurs de l’IA, telles que John McCarthy, Marvin Minsky
et Claude Shannon.
Un autre grand nom souvent associé à l’intelligence artificielle est Alan
Turing. Ce dernier n’était pas présent à la conférence, ayant disparu deux ans
auparavant, en 1954. Poursuivi en justice pour son homosexualité dans
l’Angleterre puritaine de l’époque, Turing s’est donné la mort pour échapper à la
castration chimique qui lui était imposée. Alan Turing est aujourd’hui considéré
comme étant le fondateur de l’informatique moderne. Il est célèbre pour avoir
déchiffré la machine Enigma lors de la Seconde Guerre mondiale, qui permettait
aux Allemands de transmettre des messages cryptés. Si cette histoire ne vous est
pas familière, je recommande le visionnage du film The Imitation Game, sorti en
2014 (Tyldum, 2014). Bien que le film ne relate pas les évènements historiques
d’une manière entièrement fidèle, il offre une représentation accessible et
captivante de l’impact significatif du travail de Turing. Le titre du film fait
d’ailleurs référence à un test proposé par Alan Turing pour évaluer l’efficacité
des intelligences artificielles. Ce test, nommé « The Imitation Game » ou encore
« test de Turing » en français, est un test qui vise à déterminer si une machine
peut être au moins aussi intelligente qu’un humain (Saygin et al., 2001 ; Turing,
1950). Pour réaliser ce test, on place la machine dans une pièce et un
interrogateur dans une autre pièce. Un échange se fait entre les deux par
messages interposés (voir Figure 2). De nos jours, ce type de test pourrait
aisément se faire via un chat, en laissant l’interrogateur dans l’incertitude quant
à la nature de son interlocuteur : humain ou chatbot. Le principe du test est
qu’aussi longtemps que l’interrogateur ne parvient pas à déterminer s’il
communique avec une machine ou un humain, la machine réussit le test de
Turing. Une machine ne passe le test de Turing que s’il est absolument
impossible pour un individu de savoir s’il a affaire à une machine ou un humain
de l’autre côté du mur. Seule une IA vraiment puissante serait capable d’y
arriver.
Figure 2. Le test de Turing

Source : autrice ; pictogrammes issus de Vectorportal.com

En 1965, le MIT a développé ELIZA le tout premier chatbot de l’histoire qui a


réussi le test de Turing pendant quelques minutes seulement. Ce chatbot simulait
un psychothérapeute s’adressant à ses patients (Weizenbaum, 1966). Similaire au
test de Turing, les interactions avec ELIZA se faisaient par écrit. Les utilisateurs
racontaient leurs problèmes à ELIZA, qui en retour générait des réponses.
Cependant, après quelques minutes d’échanges, il devenait évident pour
l’utilisateur qu’il interagissait avec une machine, non pas avec un véritable
thérapeute humain. À ce jour, aucune machine n’a réussi à passer le test de
Turing de manière indiscutable, c’est-à-dire à se faire passer pour un humain de
manière convaincante et soutenue. Réussir ce test reste un jalon important dans
la recherche en intelligence artificielle, malgré les critiques qui suggèrent que ce
test ne capture pas toutes les facettes de l’intelligence humaine.
Il est important de noter que Turing n’a pas établi de critères précis concernant
la durée du test, le nombre de juges à tromper, etc. En 1990, le prix Loebner a
été créé pour récompenser les chatbots les plus convaincants en matière
d’intelligence artificielle. Il s’agit d’une compétition annuelle basée sur le test de
Turing, où des chatbots sont évalués par des juges humains qui cherchent à
déterminer s’ils conversent avec un humain ou une machine (Loebner, 2007).
Les lauréats tels que Mitsuku ou Rose, sont des chatbots qui ont remporté le prix
Loebner au fil des années pour leur performance lors de ces compétitions.
Cependant, il convient de noter qu’aucun de ces chatbots n’a réussi le test de
Turing de manière incontestable, car ils n’ont pas réussi à tromper un
pourcentage suffisant de juges sur une période prolongée. La compétition a pris
fin en 2020, après 30 ans d’existence, marquant la fin d’une ère dans les
concours de chatbots basés sur le test de Turing.
Un autre concept intéressant, proposé pour évaluer les intelligences
artificielles, est le Meta-Turing Test suggéré par Toby Walsh. L’idée consisterait
à mettre en place un test symétrique : non seulement l’interrogateur doit
déterminer s’il communique avec une machine ou un humain, mais on demande
également à la machine d’accomplir la même tâche, c’est-à-dire d’être capable
de discerner si elle s’adresse à un humain ou à une autre machine. Comme le
souligne Walsh : « Il est beaucoup plus ardu de trouver de bonnes questions à
poser et de déterminer ensuite si l’on parle à un humain ou à une machine, que
de se contenter de répondre aux questions. » (Walsh, 2018)
Comme nous l’avons vu, les années 1950 ont été marquées par un engouement
important pour l’intelligence artificielle, terme qui a d’ailleurs vu le jour à cette
époque et a suscité de nombreux espoirs. Pourtant, en pratique, ce terme
d’« intelligence artificielle » était davantage un argument marketing séduisant,
visant à encourager les investissements, plutôt qu’une réalité concrète. En effet,
l’intelligence artificielle développée à l’époque n’avait que peu à voir avec le
fonctionnement du cerveau humain et l’intelligence humaine. Cette
« intelligence artificielle » correspondait davantage à de la simple algorithmie
mathématique et à de l’automatisation avec des règles précises, produisant des
résultats très limités. Nous allons donc explorer comment les premières
réalisations de l’IA se sont concrétisées en pratique et tenter de définir ce que
l’on entend par algorithmie et automatisation.

2.2. L’algorithmie
L’algorithmie est un concept qui remonte bien avant l’arrivée d’Internet, de
l’IA et de Google. En réalité, la notion d’algorithme était déjà utilisée il y a plus
de 4 000 ans, à l’époque où l’on écrivait sur des tablettes en argile. Le terme
« algorithme » tire son origine du nom d’Al-Khwarizmi, un savant perse ayant
vécu entre la fin du VIIIe siècle et le début du IXe siècle. Mathématicien,
géographe, philosophe et astronome, il travaillait à la Maison de la sagesse de
Bagdad, où il traduisait et diffusait les connaissances issues de nombreuses
civilisations (Brezina, 2006). À cette époque, le calife en personne avait
demandé à Al-Khwarizmi de développer des projets et des écrits pour simplifier
la gestion de la société et la vie des citoyens. Comment optimiser la gestion des
récoltes ? Comment partager les biens ? Comment gérer les impôts et les
héritages ? Al-Khwarizmi a rédigé un ouvrage qui contenait des applications
concrètes pour aider les citoyens à résoudre ce type de problèmes de manière
plus simple, jetant ainsi les bases de la notion d’algorithme. Il a formalisé des
méthodes déjà utilisées intuitivement par les marchands, en les généralisant avec
des règles et des processus de calcul universels. Par exemple, si cinq poules
valent autant qu’une vache et qu’une vache vaut 10 dirhams, combien vaut une
poule ? Sans méthode précise, il n’était pas toujours facile de trouver rapidement
la réponse. Al-Khwarizmi a alors créé la notion d’algèbre, domaine qui englobe
des règles, des démonstrations et des techniques pour résoudre des équations.
Son livre Abrégé du calcul par la restauration et la comparaison (Kitāb al-
mukhtaṣar fī ḥisāb al-jabr wa-l-muqābala en arabe) constitue un véritable guide
pratique pour aider les citoyens à résoudre plus rapidement et sûrement ce type
de problèmes. D’ailleurs c’est le nom de ce livre qui donnera naissance au
concept « d’algèbre », le terme restauration se disant « al-djabr ». Il établit la
notion d’équation avec la double égalité qui est une innovation à cette époque et
il va expliciter des recettes pour résoudre des équations simples mais aussi plus
complexes comme des équations du second degré notamment. Ainsi, ce concept
d’algorithme, proche cousin de l’algèbre, remonte à une époque très ancienne.
Mais qu’entend-on exactement par algorithme ?
Concrètement, un algorithme est une série d’opérations, un enchaînement
d’instructions ordonnées et réalisées dans un certain ordre pour obtenir un
résultat précis9. Pour le dire simplement, un algorithme reçoit des données en
entrée, applique une logique spécifique à ces données, et produit un résultat
voulu. Une recette de cuisine est un exemple d’algorithme. Prenons le cas où
nous souhaitons préparer des muffins au chocolat. Nos données initiales seraient
les ingrédients : chocolat, farine, beurre, lait, œufs et sucre. Nous appliquons
alors à ces ingrédients une logique séquentielle, c’est-à-dire un algorithme. Étape
1 : faire fondre le chocolat au bain-marie. Étape 2 : battre les œufs dans un bol et
y ajouter la farine. Et ainsi de suite jusqu’à l’obtention du produit final : des
muffins au chocolat. Suivre une recette de cuisine, c’est donc appliquer un
algorithme.
La logique que nous appliquons à nos ingrédients pour obtenir un muffin peut
varier en complexité, notamment avec l’introduction de conditions. Par exemple,
notre recette peut très bien présenter deux possibilités d’actions selon des
conditions prédéterminées. Première situation : si vous avez du chocolat blanc,
faites-le fondre au bain-marie. Deuxième situation : si vous avez du chocolat
noir, faites-le chauffer au micro-ondes avec du lait. C’est ce que l’on appelle
l’application de conditions if else (« si… alors ») en programmation. On intègre
donc des conditions dans l’utilisation de la logique algorithmique.
C’est le même principe qui se retrouve dans la résolution du Rubik’s Cube. En
fonction des couleurs visibles sur les faces, nous avons une série de mouvements
préétablis à effectuer. Résoudre le Rubik’s Cube, c’est aussi appliquer un
algorithme (voir Figure 3). Nous y trouvons également des logiques
algorithmiques itératives avec des systèmes de boucles. Par exemple : « Tant que
la face du Rubik’s Cube n’est pas de la même couleur, répétez le mouvement. »
Figure 3. Algorithme du Rubik’s Cube

Source : autrice via https://publicdomainvectors.org/sv/fria-vektorer/Rubiks-kuber/45880.html

Comme vous l’aurez compris, développer un algorithme revient à élaborer une


recette comprenant des étapes, qui peuvent varier en complexité. On peut
rencontrer des instructions séquentielles, du type : « Commence par cette action,
puis effectue celle-ci, puis celle-là » (voir Figure 4). Nous avons également des
instructions conditionnelles : « Si la condition 1 est remplie, réalise cette action ;
si la condition 2 est remplie, effectue cette autre action », ou encore des
instructions itératives, ou des boucles : « Tant que cette condition n’est pas
satisfaite, continue d’effectuer cette action. »
Figure 4. Exemples de types d’instructions algorithmiques

Source : autrice

On confond souvent algorithme et calcul mathématique. Pourtant ce n’est pas


tout à fait la même chose. L’algorithme désigne la méthode qui est utilisée pour
exécuter le calcul. On trouve donc aussi bien des algorithmes dans la discipline
des mathématiques que dans celle de la cuisine. C’est une recette. Mais il est vrai
qu’en mathématiques on suit de nombreuses recettes et donc des algorithmes.
Certaines d’entre elles ont d’ailleurs été définies par Al-Khwarizmi, dans la
sous-discipline de l’algèbre. Prenons un exemple mathématique que vous
connaissez sûrement : la recherche de l’hypoténuse d’un triangle rectangle. Pour
rappel, l’hypoténuse est le côté opposé à l’angle droit dans un triangle rectangle.
Il existe une recette (donc un algorithme) permettant de trouver ce côté
systématiquement, qui nous est fournie par le théorème de Pythagore (voir
Figure 5). Voici l’algorithme :
1.Première étape : je prends les deux côtés qui forment l’angle droit.
2.Deuxième étape : je les élève au carré.
3.Troisième étape : je les additionne entre eux.
4.Quatrième et dernière étape : je fais la racine carrée de cette somme.
Figure 5. Illustration de l’algorithme de résolution du théorème de Pythagore

Source : autrice

Quelle que soit la longueur des côtés, j’obtiendrai toujours l’hypoténuse grâce
à cette recette.
Une fois que la recette est bien définie, comme celle que Pythagore a élaborée
pour trouver l’hypoténuse d’un triangle, il suffit de la suivre étape par étape pour
résoudre chaque nouveau triangle. Encore une fois, c’est un peu comme suivre
les instructions d’une recette de cuisine. Vous avez probablement déjà fait cela
en cours de mathématiques, sans même vous rendre compte que vous suiviez
une « recette ». Maintenant, imaginez que vous puissiez demander à une
machine de trouver l’hypoténuse à votre place. Vous lui donneriez simplement la
recette (l’algorithme de Pythagore), et il exécuterait toutes les étapes rapidement
et sans faire d’erreur. C’est exactement ce que nous faisons avec les algorithmes
informatiques : nous donnons à l’ordinateur une recette (l’algorithme), et il
effectue le travail pour nous !
L’idée avec les algorithmes informatiques est de traduire la logique
mathématique en code informatique (potentiellement écrit en utilisant différents
langages de programmation comme C++, Java, Python, etc.), pour que
l’ordinateur soit en capacité d’exécuter le programme. Ce qui est intéressant
avec ces algorithmes informatiques, c’est qu’ils sont plus rapides et fiables, et
peuvent donc gérer des tâches plus complexes. L’algorithme de Google Search,
par exemple, est un algorithme informatique très complexe qui permet d’afficher
des résultats de recherche en fonction d’une requête effectuée. Votre application
GPS Waze utilise des algorithmes assez sophistiqués pour vous guider vers votre
destination le plus rapidement possible, en prenant en compte de nombreuses
conditions : la circulation, la distance à parcourir, les éventuels travaux sur la
route, etc. En appliquant une logique mathématique qui intègre tous ces
éléments, l’application vous fournira un résultat voulu, à savoir le trajet à
effectuer pour arriver à destination rapidement.

2.3. L’automatisation
Développer des algorithmes c’est donc créer des séries d’instructions détaillées
pour réaliser une tâche spécifique. Ces instructions, comparables à des recettes,
sont composées de règles précises et ordonnées, qui une fois transmises à une
machine, peuvent être exécutées de manière autonome sans intervention
humaine. En d’autres termes, on traduit l’algorithme en algorithme informatique
qui est programmé dans un langage compréhensible par la machine, afin qu’elle
puisse réaliser la tâche correspondante en toute autonomie. Concrètement, les
premières manifestations tangibles de ce que l’on nomme aujourd’hui
l’intelligence artificielle se sont matérialisées sous la forme du développement
de telles entités autonomes, à savoir les automates. Pour faire simple, un
automate est un dispositif conçu pour accomplir une série d’actions sans
intervention humaine. L’aspiration à automatiser certaines tâches ne date pas
d’hier. Bien avant l’émergence de l’intelligence artificielle telle que nous la
connaissons, les humains cherchaient déjà des moyens pour automatiser des
tâches. Au XVIIIe siècle, par exemple, le premier moulin à farine automatique
fut inventé et, en 1737, le Flûteur vit le jour, considéré comme l’un des premiers
automates, capable de jouer jusqu’à 11 airs de musique différents.
C’est avec l’avènement de l’électricité et le développement de la recherche sur
l’IA que l’automatisation a connu un véritable essor. Dès les années 1950,
l’industrie commença à automatiser de nombreuses tâches, notamment au sein
des chaînes de production. Cela a touché divers secteurs et applications, allant de
l’industrie automobile à la fabrication d’ampoules, en passant par la production
de biscuits. L’intelligence artificielle a contribué à notre progression de la
mécanisation vers l’automatisation dans le processus de production (voir Figure
6). Durant l’étape de mécanisation, le travail entièrement manuel a été supplanté
par l’utilisation de machines assistées par l’homme. Puis, avec l’étape
d’automatisation, notre interaction avec les machines a évolué : elles ne sont
plus uniquement des outils manipulés par l’homme, mais peuvent maintenant
fonctionner de manière autonome, accomplissant des tâches comme le ferait un
humain (Growiec, 2022).
Figure 6. Du travail manuel à l’automatisation
Source : autrice ; pictogrammes issus de Flaticon.com
De manière concrète, l’automatisation croissante des chaînes de production et
d’assemblage a favorisé une production de masse tout en éliminant
progressivement des tâches routinières, peu gratifiantes et potentiellement
dangereuses. Ceci a permis de standardiser la production et d’améliorer la
qualité et la sécurité. Le développement d’ordinateurs à bandes ou à cartes
perforées notamment a facilité la mise en place de ces automates, capables de
gérer diverses tâches, de la production à l’assemblage et au conditionnement de
produits (Ligonnière, 1987). Sur les cartes perforées utilisées dans ces premiers
ordinateurs, on inscrivait des séries d’instructions à exécuter, autrement dit une
recette ou un algorithme. Le fonctionnement était similaire à celui des orgues de
barbarie, ces boîtes à musique actionnées par une manivelle faisant défiler une
carte ou une feuille perforée pour jouer différents accords. Si l’on substitue
l’action mécanique de la manivelle par une source d’électricité, on obtient un
principe similaire au fonctionnement initial d’un ordinateur à cartes perforées
(Ligonnière, 1987).
Dans la lignée de cette automatisation croissante des tâches, l’automatisation
robotisée des processus, plus couramment désignée par son acronyme anglais
RPA pour Robotic Process Automation, a souvent été mentionnée, en particulier
dans un contexte business. L’ambition du RPA est de structurer des processus en
établissant au préalable des règles, dans le but d’automatiser un ensemble de
tâches (Syed et al., 2020). Concrètement, le RPA se concentre sur
l’automatisation de tâches telles que la génération de factures, la validation de
commandes, l’analyse de routines, la mise à jour automatique des stocks, etc. En
clair, le RPA vise à optimiser les processus métier en automatisant les tâches
répétitives autrefois réalisées manuellement. Cette démarche peut mener à une
réduction significative des coûts, une diminution des erreurs humaines, et une
amélioration générale de la productivité. Cependant, l’efficacité réelle du RPA a
fait l’objet de débats, certains le considérant davantage comme une solution
temporaire plutôt que comme une transformation profonde et durable des
processus d’entreprise. Ces critiques soulèvent des questions sur la réelle valeur
et pertinence de ce système. Pour saisir le fond de ces critiques, il est essentiel de
comprendre le principe de base du RPA : celui-ci repose essentiellement sur
l’imitation des actions humaines. À titre d’exemple, automatiser la création de
factures via le RPA pourrait se traduire par la simulation des clics de souris sur le
bouton de génération de factures et par le remplissage automatique des champs
d’un formulaire dédié, des tâches auparavant réalisées par une personne. Ce
concept a connu une popularité certaine à une époque, mais il tend à être de
moins en moins utilisé. En effet, de nombreuses applications modernes
proposent des interfaces de programmation d’applications ou API (Application
Programming Interface), qui facilitent l’automatisation des tâches en permettant
une communication directe entre différents logiciels. Là où le RPA échoue
souvent en raison de sa nature rigide et dépendante de l’interface utilisateur, les
solutions basées sur l’intégration de systèmes, ou solutions « intersystèmes »,
entrent en jeu. Ces solutions visent à créer des ponts entre différents logiciels,
permettant une automatisation plus sophistiquée et adaptable. Ainsi, elles offrent
une alternative plus robuste par rapport aux méthodes de RPA traditionnelles,
tout en garantissant une plus grande flexibilité. Dans notre exemple de
génération de factures, si les logiciels concernés possèdent des API, il ne serait
plus nécessaire de simuler le clic de la souris via le RPA, mais simplement de
connecter les différentes applications entre elles et permettre le transfert
automatique des données. Cependant, malgré l’évolution des technologies et la
préférence croissante pour les solutions intersystèmes, le RPA conserve son
utilité dans des situations spécifiques, notamment en l’absence d’API
disponibles, ou lorsque les systèmes en place sont trop hétérogènes ou
insuffisamment normalisés.
Dans le milieu de l’entreprise, on a pu voir également un développement
d’autres formes d’automatisation assez populaires. L’une d’entre elles est le
marketing automation, qui concerne toutes les tâches d’automatisation liées à un
contexte marketing. Le marketing automation consiste à automatiser des
campagnes et actions marketing en fonction de conditions préétablies (Heimbach
et al., 2015). Pour illustrer son fonctionnement, considérons plusieurs exemples
d’application. D’abord, en tenant compte de divers facteurs, tels que les
comportements des consommateurs ou la date du jour, des actions prédéfinies
peuvent être déclenchées à l’intérieur de ce que l’on appelle un workflow. Ce
workflow crée des scénarios du type : « si mon prospect effectue l’action X, alors
l’action Y sera déclenchée ». Ainsi, selon les actions spécifiques du prospect (par
exemple, l’ajout d’un produit au panier, la réalisation d’un achat ou d’une
réclamation en ligne), l’automatisation du marketing peut permettre l’envoi
programmé et automatique de messages appropriés et personnalisés par e-mail
ou SMS, basés sur des templates prédéfinis. Par ailleurs, elle peut également
automatiser l’attribution et la mise à jour de scores de fidélité basés sur les
actions du client, facilitant ainsi le suivi de l’engagement client. Un autre
exemple classique est l’enrichissement automatique des bases de données
clients. À chaque réalisation d’une vente, les informations correspondantes sont
directement enregistrées dans le système de gestion de la relation client ou
CRM (Customer Relationship Management), sans nécessité d’intervention
humaine. Enfin, l’automatisation du marketing peut permettre la génération
automatique d’analyses marketing et de rapports réguliers, fournissant ainsi aux
entreprises des informations à jour pour évaluer leurs performances.
Le marketing automation, ainsi que tous les autres exemples d’automatisation
que nous venons de décrire, sont des exemples d’utilisation d’algorithmes basés
sur des règles, une forme assez rudimentaire d’intelligence artificielle. On trouve
une série d’autres exemples concrets de ce type d’IA, notamment dans les
chaînes d’assemblage automatisées dans les usines, où chaque machine exécute
une tâche spécifique en suivant un ensemble de directives prédéfinies. De même,
la robotisation dans divers domaines industriels repose sur des principes
similaires, avec des robots programmés pour réaliser des tâches précises selon
des règles strictes. Historiquement, l’IA a donc d’abord pris forme via le
développement d’automates capables d’exécuter des séries de tâches spécifiques
prédéfinies en fonction de diverses règles et paramètres. Ces automates suivaient
des algorithmes dits « basés sur les règles » (rule-based algorithms en anglais),
qui opèrent en suivant une série de directives prédéterminées. Ils sont typiques
de ce que l’on appelle l’IA symbolique, une catégorie d’IA qui fonctionne en
manipulant des symboles ou des concepts clairement définis. Ces IA exigent que
le programmeur ait anticipé tous les scénarios possibles et déterminé les
différentes actions que le robot, la machine ou le logiciel doit effectuer de
manière totalement autonome.

2.4. Les systèmes experts


D’importants investissements ont été réalisés entre les années 1950 et les
années 1970 pour développer l’intelligence artificielle. Nous l’avons évoqué,
certaines applications concrètes ont vu le jour, telles que les robots automatisés
sur les lignes d’assemblage de General Motors dès 1961, le développement du
premier chatbot ELIZA en 1965 ou le tout premier véhicule autonome en 1974.
Cependant, malgré ces débuts prometteurs, les résultats obtenus n’étaient pas à
la hauteur des investissements engagés et des attentes initiales. Les premières
tentatives de traitement du langage ont montré des résultats mitigés. Les
ordinateurs étaient limités en termes de capacité de calcul et les programmes
développés n’étaient finalement pas très utiles en pratique. ELIZA, bien
qu’ayant réussi le test de Turing pendant quelques minutes, possédait un
fonctionnement rudimentaire et se contentait principalement de reformuler ce
que disait son interlocuteur. Malgré un engouement médiatique considérable, les
traductions automatiques et les reconnaissances vocales tant attendues ne se sont
pas concrétisées.
Au fil du temps, il est devenu évident que, bien que les machines soient
capables de résoudre des problèmes complexes et de démontrer des théorèmes
mathématiques, elles avaient du mal à accomplir des tâches pourtant simples
pour l’homme, telles que reconnaître un objet ou se déplacer dans l’espace. Cette
observation a conduit à la formulation du « paradoxe de Moravec » par des
chercheurs en intelligence artificielle : paradoxalement, les tâches les plus
triviales pour un être humain sont souvent celles qui sont les plus ardues à
effectuer pour une intelligence artificielle.
Ces déceptions successives ont mené à une période désignée sous le terme
« d’hiver de l’IA », s’étendant des années 1970 aux années 1980. En 1973, un
rapport incisif rédigé par le mathématicien James Lighthill jetait un froid sur la
recherche en IA. Il y décrivait cette discipline comme étant un véritable mirage,
en soulignant les différents échecs retentissants qui n’avaient pas répondu aux
attentes initiales (Lighthill, 1973). Par conséquent, les investissements en IA ont
considérablement diminué et le sujet a clairement perdu de son attrait.
Cependant, malgré cette réduction des investissements et de la recherche en
IA, les industries ont poursuivi l’automatisation de leurs processus, mais de
manière plus spécialisée. Dans les années 1980, des programmes d’IA
spécifiques, à savoir les systèmes experts, ont été progressivement adoptés par
les entreprises. Un système expert est un logiciel conçu pour répondre à des
questions dans un domaine particulier en effectuant un raisonnement basé sur
des faits et des règles prédéfinies (Durkin, 2001). Le premier système expert, le
Dendral, était dédié au domaine de la biologie. Il permettait d’identifier les
composants chimiques et d’établir des diagnostics pour des maladies du sang.
Généralement, ces systèmes sont très utiles dans le secteur de la santé, car ils
apportent un soutien intéressant pour établir des diagnostics. Ils sont également
fréquemment utilisés dans le secteur financier, en particulier durant la période de
libéralisation des années 1980, où ils servaient d’outils d’aide à la prise de
décision.
La particularité des systèmes experts réside dans leur spécialisation dans un
domaine précis, ce qui leur confère une efficacité et une utilité supérieures aux
approches généralistes qui n’ont pas donné de résultats exploitables dans la
pratique et ont conduit à ce fameux hiver de l’IA. Concrètement, un système
expert est une application informatique spécialement conçue pour émuler le
processus de réflexion d’un expert humain dans un domaine précis. Son objectif
est d’aider les utilisateurs à résoudre des problèmes qui nécessitent une expertise
spécifique. Pour ce faire, il s’appuie sur une « base de connaissances », qui est
une collection de règles et de faits dérivés de l’expertise humaine dans le
domaine concerné (voir Figure 7). Au cœur de ce système se trouve le « moteur
d’inférence ». Celui-ci est en fait un ensemble d’algorithmes qui fonctionnent en
puisant dans la base de connaissances. Cette dernière contient des faits
spécifiques et des règles liées au domaine d’expertise concerné. En termes plus
simples, le moteur d’inférence est comme le « cerveau » du système. Il est
programmé pour imiter le processus de pensée d’un expert humain en utilisant
les algorithmes issus de la base de connaissances. En explorant les informations
contenues dans la base de connaissances, le moteur d’inférence sélectionne et
applique les règles les plus pertinentes pour effectuer des déductions logiques.
Grâce à ce processus, il peut proposer des solutions adaptées aux problèmes
posés, tout comme le ferait un expert humain dans le même domaine. En
utilisant des déductions logiques, des règles et des connaissances préétablies, le
système expert parvient à trouver des solutions de manière systématique. En plus
de résoudre des problèmes, ces systèmes servent également à expliciter la
manière dont les solutions ont été trouvées. Ils fournissent ainsi des explications
détaillées sur les étapes suivies pour parvenir aux résultats, ce qui permet
également aux non-experts de mieux comprendre les logiques sous-jacentes et
d’acquérir une meilleure compréhension du domaine en question.
Figure 7. Fonctionnement d’un système expert
Source : autrice

Les systèmes experts présentent plusieurs avantages majeurs, tels que


l’augmentation de la productivité, la diminution des délais de prise de décision et
l’amélioration de la qualité des décisions. À la différence des êtres humains,
susceptibles de voir leur jugement influencé par la fatigue, la distraction ou un
état d’humeur défavorable, les systèmes experts se distinguent par leur immunité
à ces fragilités, augmentant de ce fait leur fiabilité. Ils ne requièrent aucun repos
et sont en mesure de travailler de façon ininterrompue 24 heures sur 24. De plus,
leurs algorithmes peuvent être dupliqués sans aucune restriction, offrant ainsi un
potentiel de mise à l’échelle considérable. Bien que ces systèmes soient
relativement rudimentaires puisqu’ils ne s’appuient que sur des règles explicites,
sans possibilité d’extrapolation ou d’apprentissage spécifique, ils ont tout de
même contribué au développement de premières inquiétudes relatives aux IA, en
particulier sur le remplacement potentiel des humains par les machines dans
différents domaines d’activité, mais aussi la crainte que certaines intelligences
artificielles puissent, à terme, menacer l’existence même de l’être humain.

3. LES PREMIÈRES INQUIÉTUDES LIÉES AU DÉVELOPPEMENT DE


L’IA

3.1. Fantasmes et science-fiction dans la culture populaire


Les premiers développements de l’intelligence artificielle et de
l’automatisation ont créé un terreau fertile pour l’émergence de craintes et
d’inquiétudes, souvent alimentées par des fantasmes et des récits de science-
fiction. La littérature et le cinéma regorgent d’exemples de dystopies dans
lesquelles des machines pensantes deviennent toutes-puissantes et prennent le
contrôle sur l’humanité. Ces scénarios catastrophes ne sont d’ailleurs pas
nouveaux et remontent à bien avant la naissance de l’IA. Un exemple célèbre est
le roman Frankenstein de Mary Shelley, publié en 1818 au Royaume-Uni
(Shelley, 1818). L’histoire met en scène le docteur Frankenstein qui crée un être
vivant artificiel et intelligent, appelé le monstre ou la créature. Le créateur,
n’ayant pas anticipé les conséquences désastreuses de son invention, fini par
abandonner et ne plus maîtriser sa création, ce qui conduira à une fin tragique.
Le cinéma a par la suite donné naissance à de nombreuses dystopies du même
genre, plus ou moins réalistes. Parmi les exemples notables, on peut citer des
films tels que The Terminator (Cameron, 1984), I, Robot (Proyas, 2004), 2001,
l’Odyssée de l’espace (Kubrick, 1968), Matrix (The Wachowskis, 1999), Blade
Runner (Scott, 1982), et bien d’autres encore. La série télévisée américaine
Black Mirror, diffusée aux États-Unis dès 2011, est également marquante pour
sa satire des développements technologiques (Brooker, 2011). Ses récits
d’apocalypse esquissent un avenir terrifiant et déconcertant, mettant en lumière
les conséquences possibles d’un usage irréfléchi de l’IA et des nouvelles
technologies.
Il est intéressant de constater que lorsque l’on traite du sujet de l’intelligence
artificielle dans la fiction, on se retrouve souvent face à des dystopies qui
décrivent des scénarios troublants, désastreux, voire apocalyptiques. A contrario,
il est peu courant de trouver des exemples où l’humain et l’IA collaborent en
harmonie pour le bien commun. Ce type d’histoire est probablement moins
vendeur, mais cette fascination pour les perspectives désastreuses de
l’intelligence artificielle et des technologies a largement contribué à établir une
image négative et une réputation controversée de l’IA, suscitant inquiétudes et
craintes chez de nombreuses personnes. Le cinéma et la littérature ont ainsi
façonné les mythes que la majorité des gens entretiennent sur l’intelligence
artificielle.
Néanmoins, ces dystopies ont aussi la vertu d’inciter les individus à se poser
des questions saines et importantes sur les inventions et les développements
technologiques. C’est ce type de questionnements que l’on trouve par exemple
dès les années 1940, grâce à l’écrivain russo-américain Isaac Asimov qui publia
une nouvelle intitulée Le cercle vicieux en 1942. Il y aborde une réflexion
intéressante sur le développement des robots et élabore ses fameuses « lois de la
robotique ». Afin de contrer les conséquences potentiellement néfastes de la
robotisation, il imagine des lois qui, selon lui, pourraient être inscrites en 2058
dans le Handbook of Robotics. Il énonce trois lois simples (Asimov, 1942) :
1.Première loi : un robot ne peut porter atteinte à un être humain ni, restant
passif, permettre qu’un être humain soit exposé au danger ;
2.Deuxième loi : un robot doit obéir aux ordres donnés par les êtres humains,
sauf si de tels ordres entrent en contradiction avec la première loi ;
3.Troisième loi : un robot doit protéger son existence dans la mesure où cette
protection n’entre pas en contradiction avec la première ou la deuxième loi.
Cette première tentative de formalisation des lois de la robotique a mis en
lumière les défis complexes de l’établissement de règles simples pour régir
l’interaction entre les humains et les machines intelligentes. En effet, elles
peuvent rapidement engendrer des conséquences imprévues, en suscitant des
questions non résolues et des dilemmes éthiques. Par exemple, que se passe-t-il
si un robot ignore que ses actions peuvent nuire à un être humain ? Comment le
robot devrait-il réagir si exposer un être humain à un danger permet d’en sauver
trois autres ? Que doit faire le robot s’il reçoit des ordres contradictoires de
différents êtres humains ?
Il est compliqué de définir des règles qui ne soulèvent ni contre-exemples, ni
cas particuliers ou effets secondaires indésirables. Cela souligne la complexité
inhérente à l’application d’une éthique basée sur des principes simples dans un
monde réel qui est souvent beaucoup plus nuancé et complexe. Néanmoins, ces
exercices de pensée bien que nés dans le domaine de la science-fiction, ont le
mérite de stimuler le développement d’une réflexion individuelle et collective
sur les conséquences éthiques et sociétales des technologies. Ils soulignent
l’importance mais aussi le défi de mettre en place des directives pour le
développement des IA et des robots et de nourrir une réflexion approfondie sur
les conséquences potentielles de ces avancées technologiques. En plus de
soulever d’importantes questions éthiques et sociétales, le développement rapide
de l’intelligence artificielle et des robots pose également un défi majeur sur le
marché du travail, exacerbant les craintes liées à la disparition potentielle de
nombreux métiers.

3.2. La peur de la disparition des métiers


L’une des principales préoccupations associées au développement de
l’intelligence artificielle est également la potentielle disparition de nombreux
métiers, due à la substitution progressive des humains par des machines de plus
en plus sophistiquées. Cette crainte, loin d’être récente, remonte au XVIIIe
siècle, lors des premières révolutions industrielles. Chaque avancée
technologique a suscité des peurs de substitution du travail humain par des
machines dans divers secteurs. Par exemple, lors de l’essor de l’industrie textile
durant la révolution industrielle, l’introduction de machines à tisser mécaniques
a suscité de vives inquiétudes parmi les tisserands. Certains d’entre eux, connus
sous le nom de « luddites », sont même allés jusqu’à détruire ces nouvelles
machines, symbole d’une menace pour leur emploi.
Au gré des évolutions technologiques, de nombreux métiers ont été
transformés, voire ont disparu, en raison de la mécanisation et de
l’automatisation croissante des tâches. Par exemple, les allumeurs de réverbères
ont été remplacés par des systèmes d’éclairage automatique, les blanchisseurs
par des entreprises de nettoyage industriel et des machines à laver modernes,
tandis que les progrès dans l’imprimerie ont rendu obsolète le métier de graveur.
Aujourd’hui, cette tendance se poursuit avec, par exemple, le remplacement
progressif des caissiers de supermarché par des caisses automatiques, ou la
fermeture des agences bancaires physiques au profit de services bancaires en
ligne.
Cependant, ces progrès technologiques entraînent souvent, sur le long terme,
des transformations dans les activités existantes et génèrent de nouveaux métiers
plutôt qu’une suppression nette d’emplois. Cette théorie, connue sous le nom de
« destruction créatrice », a été formulée par l’économiste Joseph Schumpeter au
début du XXe siècle (Schumpeter, 1942). D’après lui, bien que l’innovation
technologique puisse éliminer certains emplois, cette destruction est
généralement compensée par la création de nouvelles professions. C’est
exactement ce qu’a démontré l’essor spectaculaire d’Internet. Ce nouvel
environnement numérique a donné naissance à de nombreux emplois que l’on
n’aurait pas pu imaginer il y a vingt ans. Parmi ces métiers nouveaux, on compte
les informaticiens, les préparateurs de commandes en ligne, les data scientists,
les UX designers, les développeurs d’applications, les spécialistes du marketing
digital, les community managers, et bien d’autres.
Toutefois, il est indéniable que l’émergence de l’intelligence artificielle
pourrait laisser penser que cette fois-ci, la situation est différente. Comme nous
le verrons dans ce livre, l’IA permet des réalisations extraordinaires qui vont
bien au-delà de la simple automatisation, substituant l’humain dans des tâches de
plus en plus sophistiquées. Même des professions intellectuelles qui requièrent
plusieurs années d’études, comme celles de médecin ou d’avocat, sont
menacées. Face à ces interrogations légitimes et ces inquiétudes croissantes, de
nombreuses études prospectives ont été menées afin de déterminer dans quelle
mesure l’IA représente une menace réelle pour l’emploi. L’étude la plus souvent
mentionnée a été menée en 2013 par deux chercheurs de l’université d’Oxford
(Frey & Osborne, 2013). Selon leurs conclusions, près de 47 % des emplois aux
États-Unis pourraient être menacés dans les deux prochaines décennies, ce qui
est assez considérable. Ils estiment que les secteurs les plus exposés à la
substitution par l’IA sont le transport, la logistique, l’administration et la
production ouvrière. Fait ironique, ce rapport fréquemment cité a lui-même été
généré à l’aide de l’IA. En effet, les auteurs ont catégorisé une liste de plusieurs
centaines de professions comme étant automatisables ou non, puis ont utilisé une
IA pour anticiper l’avenir de centaines d’autres métiers. Ainsi, on constate que
même la tâche consistant à prédire le devenir des emplois futurs a été
partiellement automatisée ! À noter que certains experts comme Walsh (2018)
ont montré que ce rapport était clairement discutable, les chercheurs ayant fondé
leurs prédictions sur des hypothèses qui sont loin d’être évidentes.
Parmi les autres travaux marquants sur la question, l’étude menée par le think
tank de l’Institut Sapiens mérite d’être mentionnée (Tison, 2018). Cette
recherche fournit des projections d’années pour le remplacement futur des
professions par l’automatisation et l’intelligence artificielle. Par exemple, ils
anticipent un remplacement des employés de banque et d’assurance entre 2038
et 2051, des employés de la comptabilité entre 2041 et 2056, des secrétaires de
bureautique et de direction entre 2053 et 2075, des caissiers et des employés de
libre-service entre 2050 et 2066, et finalement des ouvriers de manutention entre
2071 et 2091. Plus récemment, l’étude menée en 2023 par le Forum économique
mondial indique que 40 % de toutes les heures de travail pourraient être
impactées par des IA comme ChatGPT10. De nombreux emplois de secrétariat ou
de bureau sont considérés comme susceptibles de décliner rapidement à cause de
l’intelligence artificielle. En 2023 il a été estimé que l’IA pourrait remplacer
l’équivalent de 300 millions d’emplois à temps plein11. Ces études montrent
souvent que l’automatisation et l’IA concernent majoritairement des emplois
pénibles et répétitifs, ce qui amène certains à suggérer que cela pourrait
améliorer la qualité de vie des populations. De plus, l’automatisation d’une
profession ne débouche pas nécessairement sur une destruction nette d’emplois,
mais potentiellement sur une évolution importante des pratiques. Le secteur
financier, qui a subi des vagues considérables d’automatisation sans pour autant
disparaître, est souvent cité comme exemple.
À ce titre, dans un rapport de 2017, le cabinet de conseil McKinsey souligne
un constat surprenant : près de la moitié des métiers et des tâches exécutées
pourraient déjà être automatisés à l’heure actuelle, et pourtant, ce n’est pas le cas
aujourd’hui (Manyika et al., 2017). En effet, le fait qu’une profession puisse être
théoriquement automatisée ne signifie pas nécessairement qu’elle le sera, ni qu’il
est souhaitable de le faire. Pour des raisons économiques, techniques ou
sociétales, il n’est pas toujours judicieux ou nécessaire d’automatiser les tâches
et d’implémenter de l’IA. Considérons le métier de pilote de ligne. À l’heure
actuelle, il est parfaitement possible d’automatiser entièrement ce métier. Les
avions sont d’ores et déjà largement pilotés automatiquement, et les pilotes n’ont
plus qu’à superviser les systèmes tout en se livrant à d’autres activités, comme
lire ou discuter (Walsh, 2018). Malgré cette possibilité d’automatisation
complète, il est rassurant pour les passagers de savoir qu’un pilote humain est
présent dans le cockpit, prêt à intervenir en cas de besoin. Les facteurs
psychologiques et sociétaux sont donc déterminants dans la décision de ne pas
automatiser entièrement certaines professions, même si cela serait
techniquement faisable.
Ainsi, malgré les avancées extraordinaires de l’IA, il est probable que de
nombreuses professions perdureront, tandis que de nouvelles émergeront. Le
développement de l’IA et celui du fameux métavers, par exemple, pourraient
donner naissance à de nouveaux métiers que nous ne pouvons pas encore
imaginer. D’après un rapport du Forum économique mondial de 2018, l’IA et la
robotisation devraient supprimer 0,98 million d’emplois, mais en générer 1,74
million de nouveaux (World Economic Forum, 2018). Bien entendu, il est
impossible de prédire l’avenir avec exactitude, et ces estimations doivent être
interprétées avec prudence. D’ailleurs, certaines études affichent des résultats
contraires, avec plus d’emplois perdus que créés. Il n’y a donc pas de consensus
sur ces prédictions, mais tous les chercheurs conviennent que l’IA est déjà en
train de transformer profondément le futur de l’emploi.

3.3. La peur de dépendance et de déshumanisation


Chaque jour, nous confions un nombre croissant de tâches aux machines pour
simplifier et améliorer notre vie. Cependant, de nombreux intellectuels tels que
Yuval Noah Harari, qui aborde ce sujet dans son livre Homo Deus, estiment que
cette tendance pourrait conduire à une dépendance accrue aux machines et à une
possible déshumanisation (Noah Harari, 2017).
Tout d’abord, l’être humain semble dépendre de plus en plus des machines
pour vivre sa vie. Dans les sections précédentes de ce livre, nous avons discuté
de l’automatisation en mettant l’accent sur les entreprises et les transformations
des métiers qui en résultent. Cependant, ces progrès technologiques n’ont pas
seulement permis aux entreprises de modifier leurs pratiques et d’automatiser de
nombreuses tâches. Ils ont aussi favorisé l’émergence de nouveaux produits et
usages pour le grand public. Aujourd’hui, une grande partie de nos activités
quotidiennes peuvent être automatisées grâce à divers outils. Nos foyers
deviennent de plus en plus connectés, avec par exemple des thermostats qui
ajustent automatiquement la température ambiante, ou des enceintes intelligentes
qui nous permettent de solliciter directement Google pour effectuer une
recherche sur Internet ou d’acheter un produit sur Amazon. L’intelligence
artificielle est intégrée dans un nombre croissant de produits qui nous entourent,
dans le but de simplifier notre quotidien.
Le smartphone est un exemple éloquent de cette tendance, devenu si
indispensable qu’il est parfois perçu comme une extension de notre main.
Nombre d’entre nous ont probablement déjà ressenti une vague de panique en
réalisant qu’ils avaient égaré ou oublié leur téléphone. Pour certains, cette
sensation peut être extrêmement intense, et l’idée de se retrouver sans leur
smartphone suscite une véritable angoisse. Ce phénomène a désormais un nom
dans le lexique médical : la « nomophobie ». Ce terme, révélateur de l’un des
maux de notre époque, atteste de notre dépendance croissante envers les
smartphones. Selon une étude publiée en 2020 dans l’International Journal of
Environmental Research and Public Health, presque tout le monde souffre d’une
certaine forme de nomophobie (99,2 % des individus), dont 13 % des cas sont
considérés comme extrêmes (Kaviani et al., 2020).
Le smartphone est devenu un outil indispensable à notre vie quotidienne. Il
nous donne accès à Internet, sert de réveil, d’appareil photo et de GPS. Il nous
permet également de rester en contact avec notre entourage par téléphone ou via
les réseaux sociaux. Notre dépendance à ces technologies ne cesse de croître, à
mesure que de nouvelles applications voient le jour pour faciliter notre quotidien
et nous divertir. Qu’il s’agisse d’applications de calendrier, d’achats en ligne, de
fitness, de méditation, de gestion des finances ou de recherche d’itinéraire, elles
font désormais partie intégrante de notre vie de tous les jours.
Cette dépendance aux technologies s’intensifie avec l’intégration
d’intelligences artificielles toujours plus sophistiquées dans les appareils que
nous utilisons. Les assistants personnels basés sur le traitement du langage
naturel en sont un parfait exemple ; leur développement promet des
transformations majeures dans nos routines quotidiennes. Ils sont en voie de
surpasser les simples commandes vocales pour effectuer des appels ou envoyer
des messages. En apprenant progressivement de nos habitudes, grâce aux
données qu’ils collectent sur nous, ces assistants ont le potentiel d’anticiper nos
désirs et de proposer des solutions proactives à nos problèmes quotidiens.
Imaginez un assistant qui non seulement vous rappelle vos rendez-vous, mais qui
est aussi capable de suggérer le meilleur moment pour partir en fonction du
trafic, et qui peut même anticiper vos besoins de courses et vous proposer une
liste optimisée. Nous nous dirigeons vers une ère où ces machines ne seront pas
seulement des outils, mais des compagnons intégrés à notre quotidien qui
comprendront nos préférences et nos comportements. Cependant, cette proximité
avec la technologie accentue notre dépendance et notre propension à déléguer
des tâches et des décisions importantes. Bien que de telles applications puissent
indéniablement nous faciliter la vie, elles soulèvent également des questions
fondamentales sur notre autonomie et notre capacité à prendre des décisions par
nous-mêmes. Sommes-nous prêts à confier une part si significative de notre vie à
des machines, même les plus adaptées à nos besoins ?
Une vision futuriste de cette dépendance est parfaitement illustrée dans la
nouvelle Scarlett et Novak d’Alain Damasio (Damasio, 2021). L’auteur nous
transporte dans un futur où la dépendance aux technologies est poussée à
l’extrême. Le personnage principal, Novak, est accompagné au quotidien par
Scarlett, une intelligence artificielle sophistiquée intégrée à son smartphone.
Cette IA n’est pas simplement un outil, elle devient véritablement une présence
constante dans la vie de Novak, qui anticipe l’ensemble de ses besoins. Scarlett
est capable d’analyser les données biométriques et comportementales de Novak
en temps réel, ce qui lui permet de proposer des recommandations
personnalisées et adaptées à chaque situation. Elle gère son emploi du temps,
optimise ses déplacements, sélectionne les meilleures options de divertissement
et même les choix alimentaires en fonction de ses goûts mais aussi de ses
besoins physiologiques. Au fil de l’histoire, on découvre comment cette relation
intime entre Novak et Scarlett conduit à une dépendance toujours plus profonde
de l’homme envers la machine. Novak finit par déléguer la majorité de ses choix
et décisions à Scarlett, perdant ainsi progressivement son autonomie et son libre
arbitre. En dépendant entièrement de Scarlett pour gérer tous les aspects de sa
vie, Novak incarne une version poussée à l’extrême de la trajectoire actuelle de
notre société, où la facilité et le confort semblent souvent l’emporter sur
l’indépendance et la prise de décision personnelle. Cette œuvre invite à la
réflexion, nous poussant à questionner les limites de notre relation avec la
technologie et à considérer l’importance de préserver notre autonomie face à la
commodité séduisante des assistants personnels intelligents. Face à ce scénario,
il paraît essentiel de souligner l’impératif de trouver un équilibre entre
l’utilisation des outils technologiques pour améliorer notre quotidien et le
maintien de notre capacité à prendre des décisions.
Découlant de cette dépendance, un deuxième aspect problématique mérite
d’être soulevé, qui traite de questionnements plus profonds et philosophiques. En
déléguant ses décisions, l’être humain ne délègue-t-il pas également une certaine
forme d’humanité ? En effet, d’après certains intellectuels, l’IA pourrait nous
exposer au risque d’une « déshumanisation » progressive. C’est l’opinion
partagée par Gaspard Kœnig, qui constitue le point de départ de son ouvrage au
titre provocateur : La Fin de l’individu (Kœnig, 2019). Dans son livre, Kœnig
s’interroge sur l’avenir de l’individu et de ses libertés à l’ère de l’intelligence
artificielle. Il évoque la fin du libre arbitre, liée à une certaine aliénation aux
machines.
À l’heure où les recommandations automatisées deviennent omniprésentes, il
est manifeste que nos choix sont de plus en plus influencés, voire dictés, par des
algorithmes, ce qui provoque une perte de contrôle sur notre propre libre arbitre.
Ces systèmes d’intelligence artificielle, alimentés par des volumes massifs de
données collectées à notre sujet, jouent un rôle de plus en plus prépondérant dans
nos choix quotidiens, s’intégrant à un nombre toujours croissant d’applications.
Netflix nous suggère ce que nous devrions regarder, Spotify nous recommande
ce que nous devrions écouter, Google nous indique dans quel restaurant aller et
Amazon nous conseille quel livre lire ou quel produit acheter. Souvent, ces
recommandations sont pertinentes et nous satisfont pleinement. Grâce à l’IA,
nous avons développé des systèmes capables de nous comprendre et, parfois
même, de cerner mieux que nous-mêmes ce dont nous avons besoin. Dans une
étude réalisée en 2015 par des chercheurs de l’université de Cambridge et
commanditée par Facebook, il a été révélé que Facebook semble nous connaître
mieux que nos proches (Youyou et al., 2015). L’étude démontre que les
jugements sur la personnalité d’un individu effectués par une IA, basés sur les
informations disponibles sur Facebook, sont plus précis que ceux formulés par
les proches de la personne, qu’il s’agisse d’amis, de membres de la famille, de
collègues ou même d’un conjoint. Fortes de toutes les données qu’elles
collectent sur nous et que nous partageons parfois sans trop y réfléchir, les IA
réussissent à dresser un profil extrêmement détaillé de notre personnalité et de
nos préférences. Elles peuvent ainsi s’adapter à nos besoins et nous sommes
souvent disposés à leur laisser nous suggérer ce qui nous satisfera le plus. À
mesure que nous interagissons avec la technologie, nous constatons un transfert
graduel des tâches réfléchies vers des systèmes d’IA qui prennent en charge de
plus en plus de nos processus décisionnels. Ces derniers peuvent se charger de
mémoriser pour nous ce qu’il faut faire, de trouver des solutions face à un
problème donné ou d’anticiper nos préférences avec une précision étonnante. Ce
transfert progressif de la prise de décision à l’IA soulève des questions sur le
maintien de notre autonomie et de notre capacité à faire des choix indépendants,
des aspects fondamentaux de notre humanité.
Dans son livre, Gaspard Kœnig pose la question suivante : « Quand on perd
peu à peu l’habitude de décider de la musique que l’on écoute ou du restaurant
où l’on dîne, comment peut-on choisir librement un métier ou un partenaire ? »
(Kœnig, 2019, p. 154) Il ne croit pas si bien dire… Dès 2016, Meetic annonçait
le lancement de Lara, le tout premier coach de dating intelligent12. Cette IA a été
conçue pour accompagner les célibataires en sélectionnant les profils les plus
appropriés en fonction de leurs attentes. Elle prodigue des conseils personnalisés
pour aider les célibataires à améliorer leur présentation sur l’application, elle
peut également envoyer des messages aux prétendants à leur place et les aide à
organiser des rendez-vous amoureux.
On délègue de plus en plus de décisions et cela soulève des questions
importantes sur le libre arbitre individuel mais aussi des craintes sur l’évolution
de nos propres capacités. Lorsque nous utilisons des applications comme Waze
ou Google Maps pour nous déplacer, ou lorsque nous configurons des rappels
sur notre téléphone, nous soulageons une certaine charge mentale, mais nous
risquons également de perdre certaines capacités en contrepartie, telles que
l’orientation spatiale et la mémorisation. Une étude publiée en 2017 dans la
revue Nature Communications a examiné les effets de l’utilisation du GPS sur
notre cerveau (Javadi et al., 2017). Les chercheurs ont découvert que lorsque
nous essayons de nous orienter dans l’espace et de mémoriser des lieux sans
assistance, une région de notre cerveau appelée « hippocampe » s’active.
L’hippocampe joue un rôle crucial dans la formation de nos souvenirs et notre
orientation spatiale. Dans cette étude, les chercheurs ont suivi un groupe de
personnes qui devaient trouver leur chemin dans Londres sans aucune assistance.
Chez ces participants, l’activité de l’hippocampe était importante. En revanche,
un second groupe de personnes, qui utilisait des applications GPS pour se
déplacer, présentait une activité très faible dans cette partie du cerveau. Selon les
auteurs de l’étude, cette utilisation en continu du GPS risquerait d’atrophier
certaines zones de l’hippocampe, ce qui pourrait être assez problématique sur le
long terme.
En laissant trop souvent les machines décider pour nous, nous risquons
d’affaiblir nos propres compétences et de devenir incapables d’agir sans leur
aide. De plus, que cela soit dans la sphère privée ou professionnelle, ne plus
avoir à gérer certaines tâches ou certaines informations peut, en un sens,
déposséder les individus de leurs actes et les empêcher de prendre du recul sur
différentes situations. Ainsi, lorsque l’on participe au développement de projets
ou de produits intégrant de l’intelligence artificielle, il est important de
considérer ces enjeux et de réfléchir à la manière d’y faire face sur le long terme,
pour faire de l’IA un allier et non un maître.
En somme, nous avons vu que les premières formes d’automatisation en
intelligence artificielle, basées sur des algorithmes suivant des règles préétablies,
ont rapidement suscité des inquiétudes quant à la disparition potentielle de
certains métiers et à une certaine forme de déshumanisation. Mais comme nous
l’avons observé avec des exemples concrets tels que les assistants vocaux et les
algorithmes de recommandation, ces inquiétudes se sont amplifiées et ont gagné
du terrain avec l’avènement du machine learning. En effet, cette révolution a
donné naissance à des intelligences artificielles capables d’apprendre et de
s’adapter en continu à partir d’un volume toujours croissant de données
collectées sur notre vie et nos habitudes, les rendant ainsi plus sophistiquées,
personnalisées et pertinentes dans leurs interactions. Il convient donc de se
pencher sur le fonctionnement de ces IA avancées, afin de comprendre comment
cette révolution du machine learning vient bouleverser non seulement les
capacités et les fonctionnements des systèmes automatisés, mais également les
dynamiques sociales, professionnelles et éthiques de leur intégration dans notre
quotidien.

1. https://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257
2. http://www.culture.fr/franceterme/terme/INFO948
3. https://mmc.vc/
4. https://www.stateofai2019.com/about-mmc-ventures, https://www.ft.com/content/21b19010-3e9f-11e9-
b896-fe36ec32aece
5. Citation originale : “When we raise money it’s AI, when we hire it’s machine learning, and when we do
the work it’s logistic regression.”
6. https://www.youtube.com/watch?v=tF4DML7FIWk
7. https://www.theverge.com/23560592/boston-dynamics-atlas-robot-bipedal-work-video-construction-site
8. https://www.bostondynamics.com/products/spot
9.
https://www.cnil.fr/fr/definition/algorithme#::text=Un%20algorithme%20est%20la%20description,%C3%A0%20partir%20d
10. https://www.weforum.org/agenda/2023/05/jobs-lost-created-ai-gpt/
11. https://www.bbc.com/news/technology-65102150
12. https://www.meetic.fr/faq/recherches/qui-est-lara-et-a-quoi-sert-elle/
CHAPITRE 2. LA RÉVOLUTION DU MACHINE
LEARNING
Dans ses débuts, l’intelligence artificielle était principalement constituée
d’algorithmes basés sur des règles prédéfinies par des développeurs pour
automatiser un ensemble de tâches spécifiques. Néanmoins, l’intelligence
artificielle que nous connaissons a réellement pris son essor avec le
développement plus récent de méthodes de machine learning sophistiquées. Et
pourtant, là encore, cette idée de machine learning ne date pas d’hier. Vous vous
souvenez d’Alan Turing mentionné dans le chapitre précédent comme l’un des
pères fondateurs de l’IA ? Aujourd’hui, on peut constater à quel point cet
homme était visionnaire, car à son époque, dans laquelle les ordinateurs étaient
pratiquement inexistants ou très limités et encombrants, il avait déjà envisagé la
nécessité de développer le machine learning pour créer des IA véritablement
efficaces. Dans son étude fondatrice de 1950, Turing expliquait qu’une véritable
intelligence artificielle ne pourrait pas voir le jour si les humains étaient
contraints d’écrire et d’expliciter eux-mêmes les algorithmes, comme c’était la
pratique à l’époque (Turing, 1950). Il soulignait que cela serait trop complexe et
trop long à définir, car le code nécessaire pour reproduire une intelligence
artificielle est d’une complexité incompressible. Écrire les milliards de lignes de
code nécessaires impliquerait des siècles de travail. Selon lui, la seule façon de
créer une intelligence artificielle était alors d’inventer des machines capables
d’apprendre seules, à l’image du cerveau humain, et de générer elles-mêmes ce
code complexe. Il parlait déjà de « learning machine ». C’est précisément ce
qu’il s’est passé plusieurs décennies plus tard, avec le développement d’IA
basées sur l’apprentissage automatique.

1. MACHINE LEARNING ET RÉSEAUX DE NEURONES

1.1. Des hivers de l’IA à la révolution du machine learning


Nous l’avons vu, au cours des années 1950, les recherches en matière
d’intelligence artificielle ont suscité un enthousiasme marqué et un intérêt
croissant. Cependant, après deux décennies d’efforts intensifs et
d’investissements importants, l’enthousiasme initial a progressivement laissé
place à la déception et à la désillusion. Ces difficultés émanaient principalement
des limitations technologiques, avec des ordinateurs insuffisamment puissants, et
d’une sous-estimation de la complexité de la simulation de l’intelligence
humaine, ce qui a entraîné une désillusion et un ralentissement des recherches.
C’est ainsi que le premier « hiver de l’IA » a débuté à partir des années 1970,
entraînant une réduction drastique des investissements et suscitant des
interrogations quant à l’intérêt de poursuivre le développement de l’intelligence
artificielle (Floridi, 2020). Dans les années 1980 on observe une petite reprise du
travail sur les algorithmes, avec le développement et le déploiement des
systèmes experts, comme nous venons de le voir (Durkin, 2001). Mais là encore,
les recherches ne progressent pas autant qu’espéré et la fin des années 1980
marque le début du deuxième hiver de l’IA (Floridi, 2020). Les systèmes en
place sont trop coûteux à maintenir et se ne révèlent pas assez efficaces. Trente
ans après les écrits visionnaires de Turing, on prend conscience à quel point il
disait vrai sur l’impossibilité de développer des intelligences artificielles
avancées en fixant soi-même les règles et les étapes à suivre pour effectuer des
tâches (Turing, 1950). À cette époque, les IA étaient essentiellement
programmées à l’aide de codes composés de séquences d’instructions explicites
établies par les développeurs. Cette approche limitait les systèmes d’intelligence
artificielle à l’exécution de tâches très simples et de façon très peu efficiente.
Comme le disait Turing dès les années 1950, il était nécessaire de créer des
machines capables de générer et adapter elles-mêmes ce code, afin d’accomplir
des tâches plus complexes de manière efficace.
C’est dans les années 1990 que l’on observe un renouveau dans le
développement des IA, avec des méthodes d’apprentissage automatique qui
commencent à prouver leur efficacité. C’est donc à cette époque que les
« learning machines » dont Turing parlait dans son article de 1950 ont
commencé à être développées. Ces systèmes se caractérisent par leur capacité à
améliorer leurs performances et à ajuster leurs réponses en apprenant
directement à partir des données, sans nécessiter une programmation explicite
pour chaque tâche spécifique. Avec le temps, la puissance de calcul des
machines a considérablement augmenté, permettant des progrès notables en
matière d’apprentissage automatique et des succès remarquables à partir des
années 1990.
Un épisode marquant de l’histoire de l’IA s’est déroulé durant cette décennie,
en 1997, lorsque le superordinateur Deep Blue, conçu par IBM, a battu Garry
Kasparov aux échecs (Newborn, 2012). Kasparov était alors largement considéré
comme le meilleur joueur d’échecs au monde. Pour réaliser cet exploit, Deep
Blue utilisait la force brute, calculant des millions de combinaisons possibles
pour chaque coup en quelques secondes. L’IA ajustait ainsi son jeu en fonction
des actions de son adversaire et des probabilités calculées de gagner (Newborn,
2012). Cet épisode avec Deep Blue a été très marquant et a représenté un
symbole du progrès et de la renaissance de l’IA. À son époque, il a suscité un
grand émoi, en particulier car il s’agissait d’un tournoi d’échecs, un jeu
stratégique traditionnellement considéré comme exigeant une haute capacité
intellectuelle pour y exceller. Cet événement a ainsi revêtu une dimension
symbolique importante car, à l’époque, il semblait indiquer que l’IA était
effectivement en train de rattraper l’intelligence humaine en démontrant sa
capacité à vaincre les plus grands champions.

1.2. Définition du machine learning


Bien que les IA basées sur le machine learning aient commencé à faire preuve
d’efficacité à partir des années 1990, le concept même de machine learning est
beaucoup plus ancien, ayant été théorisé dès le milieu du XXe siècle. Alors,
concrètement c’est quoi le machine learning ? Littéralement c’est le fait d’avoir
une machine qui apprend. Mais en réalité, qu’est-ce que l’on veut vraiment dire
par « machine qui apprend » ?
Déjà, souvenez-vous, derrière la machine il y a avant tout des algorithmes qui
permettent de réaliser certaines tâches voulues. Vous êtes maintenant familier
avec le concept d’algorithme : des données en entrée, auxquelles on applique
une logique, souvent mathématique, pour obtenir un résultat souhaité en sortie.
Reprenons notre exemple de recette de cuisine. Vous avez des ingrédients en
entrée : œufs, farine, chocolat, beurre, etc. Ces ingrédients sont soumis à une
série d’étapes bien définies, constituant la recette de cuisine à suivre pour obtenir
en sortie un muffin au chocolat. Il s’agit d’un algorithme, avec des règles qui
permettent d’accomplir des actions successives et d’obtenir un résultat souhaité.
Ces règles, dans notre contexte culinaire, sont en fait les précieuses recettes
conservées dans le livre de famille, qui se transmettent de génération en
génération. Les premières incarnations de l’IA fonctionnaient de cette manière.
Cependant, avec l’avènement du machine learning dans les années 1990, la
façon de définir les algorithmes a évolué. Imaginons que votre muffin au
chocolat s’avère trop sucré. Vous pourriez alors souhaiter ajuster la recette en
réduisant la quantité de sucre ou en ajoutant plus de chocolat, par exemple. C’est
là le principe du machine learning : en fonction des résultats obtenus, la machine
ajuste son algorithme – sa recette – de manière autonome afin d’optimiser le
résultat désiré. Dans ce contexte, l’objectif serait d’optimiser la satisfaction des
convives dégustant le muffin, et la recette s’ajusterait automatiquement pour
s’améliorer. Ainsi, si on fournit à l’algorithme plein d’exemples de recettes qui
ont plu à différents types de convives, elle pourra ajuster son algorithme à partir
de ces exemples et fournir la recette la plus adaptée à un nouveau convive.
Vous l’aurez compris, le principe du machine learning est de définir et
d’ajuster son algorithme en fonction des données et des résultats que la machine
va observer. Et pour faire cela, nous n’avons pas besoin de travailler avec des
modèles hyper complexes. Faire une simple régression linéaire par exemple,
théoriquement, c’est déjà faire du machine learning !
Imaginons que vous travailliez pour une agence immobilière et que vous
cherchiez à prédire le prix de location d’un appartement en fonction de sa
surface. Vous pourriez formuler une règle générale telle que : le prix est corrélé
de façon linéaire à la surface, avec l’équation : PRIX = 2 x SURFACE + 500.
Cette relation, formulée sur la base de votre intuition et de votre expérience,
vous servira ensuite pour estimer le prix des appartements. Vous établissez ici
une logique, un algorithme a priori. Lorsqu’un nouvel appartement est mis sur le
marché, vous connaissez sa surface, appliquez votre formule préétablie et
obtenez le prix. Ainsi, vous parvenez à automatiser l’estimation des prix des
biens immobiliers.
Cependant, cette équation que vous avez définie a priori risque d’être
imparfaite, surtout si le marché est en constante fluctuation. Plutôt que de
s’appuyer sur des formules toutes faites ou des intuitions d’agents immobiliers, il
serait donc préférable d’analyser les prix et les surfaces actuellement présents
sur le marché pour définir et ajuster votre équation. C’est là où la régression
linéaire et donc le machine learning intervient. Imaginons que vous ayez une
cinquantaine d’appartements dont vous connaissez le prix et la surface. Vous
pouvez ainsi les représenter dans un plan en deux dimensions (une dimension
pour la surface et une dimension pour le prix). En utilisant la méthode des
moindres carrés, vous tracez la droite qui se rapproche le plus possible des points
(voir Figure 8). L’objectif de cette méthode est d’obtenir l’équation qui minimise
la distance à ces points. Vous obtenez une relation du type Y = aX + b, avec a
qui correspond à la pente de la droite et b à l’ordonnée à l’origine. Supposons
qu’avec cette méthode, vous trouviez effectivement l’équation : PRIX = 2 x
SURFACE + 500. Votre intuition était apparemment correcte. Cette équation
vous donne une estimation de la relation possible entre la surface d’un
appartement et son prix, qui est la plus adaptée à l’état actuel du marché. C’est
votre algorithme.
Figure 8. Représentation graphique d’une régression linéaire

Source : autrice

Mais avec le machine learning, cet algorithme n’est pas une règle fixe. Comme
pour l’exemple de la recette de cuisine, il est capable de s’ajuster selon ce qu’il
observe. Si de nouveaux biens dont vous connaissez le prix et la surface arrivent
sur le marché, vous pouvez les ajouter à votre base, et votre équation s’ajustera
pour se rapprocher au mieux des points et ainsi faire l’estimation la plus précise.
Votre modèle s’ajuste en fonction des expériences que vous lui montrez. Les
coefficients a et b dans votre équation, appelés « paramètres », sont ajustables et
dépendent des données disponibles. On peut les visualiser comme des boutons
de réglage sur une console d’ingénieur du son. En tournant ces deux boutons,
vous modifiez les valeurs de a et b, changeant ainsi la façon dont votre modèle
prédit le prix en fonction de la surface. Lorsque vous utilisez des méthodes de
machine learning comme la régression linéaire, l’ordinateur « tourne » ces
boutons de façon automatique. Il cherche à minimiser la distance entre les
prédictions de l’équation et les vrais prix connus des appartements dans votre
base de données. Autrement dit, l’ordinateur ajuste a et b jusqu’à ce qu’il trouve
la meilleure ligne d’ajustement qui se rapproche le plus possible de tous les
points de données. C’est le principe du machine learning : ajuster
automatiquement ces « boutons » ou paramètres pour optimiser les prédictions
du modèle. Et plus vous avez un nombre important de biens différents, plus votre
estimation du lien entre la surface et le prix sera fiable. Pour avoir des
estimations encore plus précises, on pourrait également prendre en compte de
nombreux autres critères comme l’étage de l’appartement, le quartier, la
présence d’un extérieur, le nombre de chambres, la présence d’un parking, etc.
Pour chacun de ces critères, la machine ajustera les différents paramètres et
trouvera la meilleure formule, et donc le meilleur algorithme pour prédire le
prix.
Bien entendu, le machine learning ne se limite pas aux régressions linéaires. Il
existe une multitude d’autres structures algorithmiques qui permettent diverses
applications, mais qui reposent sur le même principe d’adaptation de
l’algorithme et de ses paramètres en fonction des données existantes. Tom
Mitchell a proposé en 1997 une définition générale du machine learning qui
permet de bien comprendre comment tout cela fonctionne. Il dit qu’une machine
va apprendre quand elle améliore ses « performances » à réaliser une « tâche »
grâce à « l’expérience » (Mitchell, 1997). Il faut donc garder à l’esprit ces trois
éléments clés : la tâche, la performance et l’expérience (voir Figure 9).
Figure 9. Les trois éléments clés du machine learning d’après Mitchell (1997)

Source : autrice

Dans notre exemple de l’agence immobilière, « l’expérience » correspond à


l’ensemble des biens immobiliers dans notre base de données pour lesquels nous
connaissons déjà à la fois la surface et le prix. Ce sont ces biens qui permettent
d’ajuster l’algorithme. Plus nous avons de biens, et donc plus nous avons
d’expériences, meilleure sera la prédiction. La « tâche » à accomplir est de faire
cette prédiction de prix. Quant à la « performance », c’est justement la capacité à
prédire avec précision le prix d’un appartement. C’est le fait de produire des
prédictions qui coïncident étroitement avec la réalité du marché.
Cette relation entre tâche, performance et expérience, correspond tout à fait au
mode d’apprentissage que nous connaissons en tant qu’être humain. Lorsque
vous avez appris à faire du vélo, par exemple, vous n’aviez au départ aucune
connaissance, aucun savoir-faire et votre performance était médiocre. Votre
« algorithme » pour faire du vélo était très mauvais, car vous passiez votre temps
à tomber. Pour apprendre, vous avez dû accumuler les expériences, les réussites
et les échecs, pour comprendre comment bien faire du vélo et ne plus tomber.
Plus vous vous entraîniez et gagniez en expérience, plus votre performance dans
la tâche de conduire un vélo s’améliorait.
Reproduire ce mécanisme d’apprentissage pour adapter et définir les
algorithmes des IA de façon automatique était exactement ce qu’avait en tête
Alan Turing à son époque. Il est plus simple de commencer par écrire un
algorithme de base, peu efficace, mais capable de s’améliorer et de s’adapter
pour accomplir une tâche, que de tenter d’écrire directement un algorithme
parfaitement opérationnel pour cette tâche.
D’ailleurs, à l’époque de Turing, des chercheurs tels qu’Arthur Samuel
travaillaient déjà sur ces concepts. Samuel a créé une des premières applications
d’intelligence artificielle fondée sur du machine learning en développant une IA
capable de jouer aux dames (Wiederhold & McCarthy, 1992). Pour ce faire, il a
développé deux machines qui vont jouer aux dames de manière totalement
aléatoire, mais programmées pour s’améliorer au fur et à mesure des parties. Au
départ, ces machines étaient très simples et jouaient de manière chaotique.
Cependant, à mesure qu’elles accumulaient de l’expérience de jeu, elles
arrêtaient de bouger les pièces au hasard. Elles commençaient plutôt à privilégier
les mouvements qui leur avaient permis de capturer des pions adverses lors des
précédentes parties, ou à éviter les mouvements qui leur avaient fait perdre leurs
propres pions. Plutôt que de leur fournir une stratégie gagnante, Samuel les a
laissées déduire leur propre stratégie à force de jouer de nombreuses parties.
Grâce à leurs expériences positives et négatives, elles ont amélioré leur
performance dans le jeu de dames. Il s’agit là de la première application concrète
d’un programme capable d’autoapprentissage. Malheureusement, à cette époque,
les moyens technologiques n’étaient pas suffisants pour obtenir des résultats
satisfaisants. Cependant, il est évident que le concept de machine learning avait
déjà été exploré par des chercheurs visionnaires.
1.3. La notion d’apprentissage automatique
La notion d’apprentissage automatique ou autoapprentissage, bien qu’elle ne
soit pas nouvelle, est au cœur du concept de machine learning. Cette idée
fondamentale a radicalement transformé la façon dont nous concevons les
intelligences artificielles. Il s’agit d’une approche qui, bien qu’existante depuis
un certain temps, a récemment bouleversé les capacités des IA. Pour résumer ce
que nous avons vu, nous pouvons dire que la discipline de l’intelligence
artificielle se divise principalement en deux méthodes d’élaboration des IA et de
définition des algorithmes.
On distingue d’abord l’approche classique, souvent nommée rule-based AI en
anglais. Avec cette approche, c’est l’être humain qui écrit préalablement un
programme détaillant les actions à effectuer pour résoudre un problème
spécifique. En d’autres termes, l’humain définit lui-même la méthode, la recette.
Ce sont les premières incarnations de l’IA que nous avons connues et qui étaient
les plus répandues. Cependant, cette forme d’IA a révélé ses limites, car elle ne
permet pas d’effectuer des actions plus complexes, donc potentiellement utiles et
intéressantes. De plus, cette méthode exigeait également d’être en mesure de
décrire exhaustivement le problème à régler, ce qui n’est pas toujours possible.
Par exemple IBM et l’université de Georgetown ont développé un système de
traduction automatique dans les années 1950. Ce projet ambitieux visait à
traduire automatiquement du russe en anglais, en se basant sur un ensemble de
règles linguistiques codées manuellement (Hutchins, 1997). Cependant, cette
approche s’est heurtée à d’énormes difficultés. La complexité des langues
humaines, avec leurs idiomes, leurs expressions figuratives et leurs nuances de
sens, rendait la création d’un ensemble de règles exhaustif extrêmement
complexe, voire impossible. Les déceptions relatives à ces limites ont conduit
aux divers hivers de l’IA mentionnés plus haut, après avoir réalisé que les
machines ne rendaient pas les services escomptés et se révélaient peu utiles.
Cette méthode n’est ainsi efficace que pour des actions relativement simples à
définir et à exécuter.
Si l’on souhaite définir les codes à exécuter en avance, il faut d’abord avoir
une connaissance suffisante du domaine pour prendre en compte tous les
paramètres et les enchaînements logiques. Cela suppose aussi que le domaine ne
soit pas trop complexe pour être décrit avec des règles logiques. On retrouve ce
type de fonctionnement dans les systèmes experts, où les experts codifient leurs
connaissances pour automatiser la prise de décision. Par exemple, un médecin
peut dresser une liste de critères et de symptômes qui mènent à telle ou telle
maladie. Il peut définir des scénarios, avec des conditions qui conduisent à
différentes conclusions possibles. Si un patient présente un symptôme
particulier, a-t-il également des antécédents d’une maladie spécifique ? Si ce
n’est pas le cas, ressent-il telle ou telle douleur ? Si oui, est-ce que ces
symptômes persistent depuis plus de deux semaines ? Si c’est le cas, alors on
peut en conclure qu’il a x % de chances d’avoir telle ou telle maladie.
Définir des règles de la sorte et les introduire dans une machine se révèle assez
efficace pour des tâches bien précises et cadrées. Mais pour accomplir des tâches
plus complexes, l’approche classique par programmation ne convient plus.
Restons dans notre exemple du secteur médical. Supposons que l’on veuille
identifier la présence d’un cancer de la peau, non pas en se basant sur une liste
de symptômes, mais en analysant des images de taches cutanées. Cette approche
serait assez intéressante et efficace pour dresser des diagnostics. Mais cette fois-
ci il ne sera pas possible d’utiliser de l’IA basée sur les règles.
La reconnaissance d’image est en effet une tâche extrêmement complexe.
D’une part, l’image peut varier énormément en fonction de la prise de vue, de la
luminosité, du contraste, etc. D’autre part, pour analyser l’image, il faut être
capable d’analyser les pixels et de reconnaître des éléments distinctifs pour
identifier certains objets. Pour reconnaître les éléments d’une image en
s’appuyant sur une approche rule-based, il faudrait être capable de fixer des
règles du type : si j’ai une série de pixels avec certains niveaux de couleurs,
proches les uns des autres et formant une certaine forme, alors cela signifie que
je devrais reconnaître tel objet donné. Cela semble très compliqué à mettre en
place, car pour reconnaître un objet, je dois d’abord définir des caractéristiques
précises sur un nombre immense de pixels et avoir envisagé toutes les
possibilités en termes de prise de photos (objet dans la pénombre, au soleil, avec
un fort contraste, avec un certain angle de vue, etc.). Par exemple, pour
reconnaître une voiture, je vais peut-être dire qu’il faut identifier quatre roues, un
volant, des vitres, etc. Mais il existe une multitude de types de roues ou de vitres.
Et si la photo est prise de côté, il n’y aura que deux roues apparentes que
l’algorithme doit cependant être capable de distinguer d’un scooter, par exemple,
pour que cela fonctionne. Comment décrire un algorithme capable de reconnaître
un chien de face, un chien de dos, un chien au soleil, un chien à l’ombre, un
chien dans le noir, un chien sans queue, et de comprendre qu’il s’agit bien de la
même chose, c’est-à-dire un chien ?
Comme vous pouvez le voir, définir tout en amont devient un véritable casse-
tête, surtout lorsque l’on doit fournir des instructions pour chaque pixel. Et
même si l’on arrivait à fournir de telles instructions, il y a de fortes chances que
cela ne fonctionne pas. Par exemple, comment pourrais-je définir des règles
assez précises pour différencier un muffin d’un chien, ou un chien d’une
serviette dans les images ci-après ? (voir Figure 10) Avec de telles images, il y a
des chances qu’en termes de couleurs de pixels et de formes, le chien de gauche
soit plus proche du muffin et le chien de droite plus proche de la serviette, que
les deux chiens entre eux.
Figure 10. La complexité de la reconnaissance d’image

Source : autrice via https://www.datasciencecentral.com/what-tomorrow-s-business-leaders-need-to-know-


about-machine/ ; https://twitter.com/ATSE_au/status/1032092508984143873

Comme il est impossible d’écrire a priori un programme qui puisse identifier


de façon automatique et efficace un chien dans une photo, nous allons plutôt
laisser l’algorithme construire « sa propre compréhension » de ce qui définit un
chien ou non. Cela dit, pour que cette méthode d’apprentissage automatique soit
efficace, l’algorithme doit être exposé à une vaste collection d’images de chiens,
prises dans différents environnements et situations. En effet, cela permet à
l’algorithme de saisir la diversité des apparences qu’un chien peut avoir et de
« comprendre » comment reconnaître un chien dans divers contextes, renforçant
ainsi sa capacité à effectuer correctement la tâche de reconnaissance. C’est cette
méthode qui est au cœur de la seconde grande approche de construction
d’intelligences artificielles, que l’on nomme data-driven AI en anglais, donc IA
basée sur les données. Dans cette approche par apprentissage automatique c’est
la machine elle-même qui définit le programme en prenant en compte les
données et les résultats attendus. Elle analyse la réalité observée dans les
données fournies et ajuste ses algorithmes en conséquence. C’est dans cette
approche que nous utilisons le machine learning. Grâce à cette méthode, je peux
identifier des cancers de la peau via la reconnaissance d’image. Comment cela
fonctionne-t-il ? Je ne vais pas essayer de lister les caractéristiques d’une tache
qui pourraient indiquer la présence d’un cancer ou non. Comme nous l’avons vu
précédemment, cela serait trop complexe. Au lieu de cela, je vais laisser
l’algorithme développer lui-même une représentation de ce qui caractérise un
cancer de la peau ou non (voir Figure 11).
Figure 11. Rule-based vs data-driven AI

Source : autrice, via https://www.mmt-fr.org/cancer/peau/ ; https://www.syndicatdermatos.org/article-de-


presse/grains-de-beaute-verifier-quils-ne-cancereux/

Rappelez-vous, c’est précisément la même méthode qu’Arthur Samuel a


utilisée pour le jeu de dames. Il avait permis aux algorithmes de « comprendre »
par eux-mêmes ce qui pourrait conduire à un mauvais coup et, inversement, ce
qui pourrait permettre de capturer le pion d’un adversaire. D’ailleurs, Arthur
Samuel n’était pas particulièrement doué pour jouer aux dames et affirmait qu’il
n’aurait pas été capable de décrire lui-même des stratégies gagnantes. Il a laissé
la machine s’entraîner et s’améliorer, grâce au machine learning. C’est
exactement ce que nous faisons avec la reconnaissance d’image. Nous
fournissons à l’IA un grand nombre d’images de peau, en indiquant lesquelles
sont cancéreuses et lesquelles ne le sont pas. La machine s’entraîne ensuite à
prédire la présence d’un cancer et améliore son algorithme pour augmenter sa
précision. C’est le principe de l’apprentissage automatique.
1.4. Les grandes phases d’apprentissage du machine learning
Comme nous l’avons vu, le machine learning est un processus qui permet à
l’IA de s’améliorer continuellement en affinant son algorithme à partir des
données sur lesquelles il s’entraîne. Cependant, ce processus d’apprentissage
n’est pas exempt de défis, et l’un des obstacles les plus courants et les plus
délicats à surmonter est l’overfitting. L’overfitting se produit lorsque le modèle
d’IA s’adapte trop précisément aux données d’entraînement, au détriment de sa
capacité à généraliser à de nouvelles données. Imaginez un professeur qui, au
lieu d’enseigner les règles de la grammaire à ses élèves, leur ferait simplement
mémoriser une liste spécifique de phrases correctes. Les élèves pourraient réciter
parfaitement ces phrases, mais seraient perdus face à de nouvelles phrases ou à
des variations de celles apprises. De manière similaire, un modèle d’IA qui
souffre d’overfitting reproduira avec précision les réponses pour les données sur
lesquelles il a été entraîné, mais échouera probablement lorsqu’il sera confronté
à de nouvelles situations ou données.
Pour illustrer l’overfitting1, on peut visualiser un lit qui aurait pris la forme
exacte du corps d’une personne pendant son sommeil. Pour se construire, le lit
apprend des données qu’il possède. Bien que le lit semble parfaitement moulé à
cette personne spécifique, dans cette position spécifique, il serait inconfortable et
inadapté pour toute autre personne ou pour toute autre position. De même, une
niche pour chien qui épouserait de très près la forme de l’animal, serait une
niche créée à partir d’un cas spécifique, à savoir un certain chien dans une
certain position. Mais si le chien change de position ou si un autre chien veut
utiliser la niche, celle-ci devient impraticable. Elle est si spécifiquement moulée
sur la forme initiale du chien qu’elle perd sa fonctionnalité dès que les
conditions changent légèrement. C’est exactement ce qui se passe avec
l’overfitting dans le machine learning. Un modèle qui est trop précisément ajusté
aux données d’entraînement peut fonctionner parfaitement sur cet ensemble
spécifique, mais il échouera dès qu’il sera confronté à de nouvelles données ou à
des situations légèrement différentes. Comme la niche trop étroite, le modèle
devient inutile dès qu’il sort du contexte très spécifique pour lequel il a été
formé.
Pour contrer ce phénomène et s’assurer que les modèles d’IA sont non
seulement précis, mais aussi robustes et utiles, les designers d’IA utilisent une
méthode en plusieurs phases clés, qui inclut une séparation de leurs données
d’entraînement (voir Figure 12).
Figure 12. Les deux grandes phases du machine learning

Source : autrice

Dans la première « phase d’apprentissage », l’objectif est de développer et de


calibrer un modèle d’IA. Cette étape critique requiert l’utilisation de la majorité
de l’ensemble des données, à savoir généralement 80 % des données. Ces
données doivent être soigneusement préparées en amont. Cela implique des
étapes de nettoyage pour éliminer les erreurs, de structuration pour organiser les
données de manière logique, et d’annotation pour attribuer des étiquettes aux
données, ce que l’on appelle la labellisation. De plus, lors de cette phase, on
extrait des features, c’est-à-dire, des variables pertinentes à prendre en compte
qui seront les caractéristiques les plus discriminantes. Par exemple, si le but est
de reconnaître une pomme, les features pourraient être la couleur, la taille, etc.
Cette extraction des features est typiquement réalisée par les data scientists qui
choisissent ensuite l’algorithme le plus adapté parmi une variété d’options
disponibles, telles que les machines à vecteurs de supports, la méthode random
forest, ou la méthode des k-plus proches voisins par exemple. Nous ne rentrerons
pas dans le détail de chacun de ces algorithmes pour le moment, mais ce qu’il
faut s’avoir c’est que, comme la régression linéaire avec sa structure Y = aX + b,
ces différentes options d’algorithmes que les data scientists peuvent choisir,
représentent toutes différentes structures mathématiques possibles avec leurs
paramètres associés. Ensuite le paramétrage du modèle choisi est réalisé grâce
aux données. Il s’agit d’ajuster les paramètres du modèle choisi, une étape qui,
comme nous l’avons vu, peut être analogiquement décrite comme un « tournage
des boutons ». Comme des boutons que l’on tournerait sur une table de mixage,
les différents paramètres du modèle sont ajustés automatiquement pour obtenir
les meilleures performances pour prédire les données. L’humain peut également
intervenir manuellement pour ajuster certains paramètres, appelés
« hyperparamètres », qui régissent la structure globale du modèle et son
comportement d’apprentissage.
Les 20 % restants de l’ensemble de données sont réservés pour la « phase de
test », une étape cruciale où l’algorithme est évalué afin de s’assurer de sa
performance et de sa capacité à généraliser à de nouvelles données.
Contrairement à la phase d’apprentissage qui utilise 80 % des données pour
construire et affiner le modèle, la phase de test ne sert pas à ajuster les
paramètres du modèle mais à vérifier son efficacité. Pendant cette phase, les
prédictions de l’algorithme sont comparées aux résultats réels présents dans ces
20 % de données non utilisées lors de l’apprentissage. Pour évaluer la qualité des
prédictions et s’assurer de leur fiabilité, on emploie alors divers indicateurs
statistiques, comme la matrice de confusion par exemple, typiquement utilisée
dans le contexte des algorithmes de classification. Cette dernière est un tableau
qui aide à visualiser la performance d’un algorithme en montrant le nombre de
prédictions correctes (vrais positifs et vrais négatifs) et incorrectes (faux positifs
et faux négatifs). L’objectif est de mesurer l’exactitude du modèle et d’identifier
les éventuelles lacunes dans sa capacité à généraliser à partir de nouvelles
données. C’est à cette étape que l’on peut détecter l’overfitting, c’est-à-dire si le
modèle, bien qu’il ait performé exceptionnellement bien sur les données
d’entraînement (les 80 %), se montre incapable de maintenir cette performance
sur ces nouvelles données (les 20 %). En identifiant les erreurs et en analysant
les écarts entre les prédictions et les résultats réels, nous pouvons avoir une idée
claire de la manière dont le modèle se comportera dans le monde réel et prendre
des mesures pour corriger ces éventuels problèmes. Ces corrections peuvent
prendre diverses formes : un rééquilibrage des classes au sein des données, s’il
s’avère qu’une catégorie est surreprésentée par rapport aux autres ; une épuration
des données, pour éliminer les erreurs ou combler les lacunes ; un affinage des
hyperparamètres ; voire même un changement complet de modèle et structure
algorithmique si nécessaire.
La seconde phase principale qui est la « phase d’inférence », met en œuvre le
modèle élaboré lors de la première phase pour générer des prédictions sur de
nouvelles données. Le modèle de machine learning utilisé à cette étape est
précisément celui qui a été conçu et ajusté lors de la phase 1. La prédiction
obtenue est le résultat direct de l’application de ce modèle entraîné.
En bref, la première phase consiste à construire et affiner un modèle d’IA en se
basant sur une large partie de l’ensemble de données, puis testé grâce au reste
des données pour effectuer des corrections, tandis que la deuxième phase met en
pratique ce modèle pour générer des prédictions sur de nouvelles données. Ce
sont les phases d’apprentissage couramment employées pour entraîner, tester et
appliquer des modèles de machine learning.

1.5. Les trois types d’apprentissage


Lorsque l’on entraîne et calibre nos modèles de machine learning, on peut le
faire de plusieurs façons. Il existe en effet trois méthodes d’apprentissage
principales pour un algorithme : l’apprentissage supervisé, l’apprentissage non
supervisé et l’apprentissage par renforcement.
Tout d’abord, on trouve l’apprentissage supervisé qui fonctionne comme un
système de tutorat dans lequel l’algorithme est guidé dans son processus
d’apprentissage. On indique à l’algorithme ce qu’il doit trouver en attribuant des
« étiquettes » ou « labels » aux données. Par exemple, si on lui fournit des
images de pommes, chaque image est accompagnée d’un label affirmant qu’il
s’agit d’une pomme. À force de voir des images de pommes et de constater
qu’elles sont associées au label « pomme », l’algorithme va apprendre à
reconnaître des pommes. L’avantage principal de l’apprentissage supervisé est
qu’il permet de réaliser des prédictions précises, que ce soit pour reconnaître des
objets ou effectuer des estimations numériques. Cela signifie que le modèle est
capable de reconnaître avec exactitude des objets ou des tendances à partir de
nouvelles données, en se basant sur les exemples et les étiquettes fournies durant
la phase d’entraînement. Les techniques algorithmiques couramment utilisées
pour cela incluent la classification, qui consiste à attribuer des données entrantes
à des catégories prédéfinies, et la régression, qui vise à établir une relation
mathématique entre des variables, permettant ainsi de prédire une valeur
numérique continue.
L’apprentissage non supervisé, quant à lui, fonctionne sans principe
d’étiquetage. Imaginons maintenant que nous fournissions à l’algorithme un
ensemble d’images contenant des pommes et des bananes, sans aucune étiquette
pour les différencier. L’algorithme va essayer de trouver des motifs récurrents et
des similarités entre les images pour les regrouper en deux catégories basées sur
la forme ou la couleur, et ainsi distinguer deux groupes qui semblent bien
distincts. Un humain pourra ensuite caractériser et nommer ces deux groupes a
posteriori, à savoir, les pommes et les bananes. L’intérêt de ce type
d’apprentissage est qu’il permet de découvrir des catégories ou des structures
dans les données que nous n’aurions pas envisagées. Les techniques
algorithmiques souvent utilisées ici comprennent le clustering, qui permet de
regrouper les données en différentes catégories basées sur leur similitude, sans
connaissance préalable des groupes, et la réduction de dimensionnalité, qui vise
à simplifier les données en les réduisant à leurs composantes les plus
significatives, facilitant ainsi leur analyse et leur visualisation.
Enfin, l’apprentissage par renforcement est un type d’apprentissage où
l’algorithme apprend par essais et erreurs. Il est guidé par un système de
récompenses et de punitions. L’objectif est d’optimiser une fonction de
récompense en prenant des décisions successives. Il est généralement utilisé
dans les systèmes de prise de décision, comme l’apprentissage d’un jeu de
stratégie ou la navigation d’un robot. Pour illustrer cela avec un exemple
concret, prenons le jeu de dames. Lorsque l’on joue aux dames, un coup
particulier n’est pas fondamentalement bon ou mauvais. Cependant, des actions
qui conduisent à réduire le nombre de pions de l’adversaire peuvent être
récompensées, tandis que perdre un de ses propres pions entraînerait une
sanction. Ainsi, l’algorithme apprend progressivement à améliorer sa stratégie de
jeu, non pas en mémorisant simplement des coups spécifiques, mais en
optimisant les conséquences de ses actions en fonction des récompenses et des
sanctions reçues.
Pour illustrer ces trois types d’apprentissage et leur application dans la vie
réelle, prenons l’entreprise Airbnb comme exemple. En adoptant l’apprentissage
supervisé, Airbnb peut recourir à la classification pour classer les types de
photos (cuisine, salon, chambre, etc.), ou à la régression pour prédire le prix des
logements basé sur divers critères (critiques, emplacement, etc.). En revanche,
en utilisant l’apprentissage non supervisé, Airbnb peut se servir du clustering
pour segmenter les utilisateurs de sa plateforme et identifier des groupes
intéressants, ou de la réduction de dimensionnalité pour condenser les critiques
de logements en une seule dimension (positif vs négatif). Dans un contexte
d’apprentissage par renforcement, Airbnb pourrait mettre en place un algorithme
pour optimiser des recommandations personnalisées à ses utilisateurs, en testant
différentes recommandations et en ajustant ses propositions en fonction des
retours des utilisateurs.
En conclusion, selon l’application et les objectifs, différents types
d’apprentissage sont envisageables. Le choix du type d’apprentissage dépend de
la nature des données à disposition et de l’objectif que l’on souhaite atteindre.

1.6. Les réseaux de neurones


Au-delà des grandes catégories d’apprentissage, il convient de noter
l’existence de plusieurs structures algorithmiques pour faire du machine
learning. Nous en avons déjà mentionné quelques-unes dans les sections
précédentes (régression, clustering, chaînes de Markov, random forest, etc.).
Lorsque l’on conçoit une IA qui s’améliore au fil des expériences,
l’établissement préalable d’une structure algorithmique est impératif. Cela
signifie qu’il faut choisir le type de modèle qui correspond le mieux au problème
à résoudre, comme la régression pour les tâches de prédiction, ou le clustering
pour la segmentation des données par exemple. En effet, bien que certains
modèles d’IA puissent initialement être configurés avec des paramètres
aléatoires, l’instauration d’une architecture spécifique avant l’entraînement est
cruciale pour fournir un cadre nécessaire à l’évolution du modèle. Pour illustrer
ce point, revenons à notre métaphore de la cuisine. Si je souhaite que ma recette
de muffins s’ajuste automatiquement afin de produire des pâtisseries plus
savoureuses au fil des entraînements, je dois fournir en premier lieu une
structure de recette à améliorer. Si des ingrédients aléatoires sont mélangés dans
des quantités aléatoires à chaque essai, il serait extrêmement difficile, voire
impossible, d’identifier les ajustements nécessaires pour améliorer la recette.
Sans un point de départ stable avec des critères précis à ajuster, il n’y a pas de
base pour évaluer l’impact des modifications apportées. Chaque essai serait
complètement différent du précédent, ce qui rendrait toute forme d’apprentissage
ou d’amélioration impossible. De manière analogue, il serait très difficile pour
l’IA de s’entraîner efficacement sans structure algorithmique de départ qui
contient des paramètres à ajuster, qui permettent par la suite d’affiner son
modèle. Par exemple, nous l’avons vu, une des applications les plus basiques du
machine learning est l’utilisation de régressions linéaires. Cette approche se
révèle très pertinente lorsqu’il s’agit de faire des prédictions numériques assez
simples, comme des prévisions de prix d’appartements par exemple. En utilisant
cette méthode, l’algorithme détermine lui-même les paramètres a et b de
l’équation linéaire Y = aX + b en s’entraînant sur un jeu de données pour
lesquelles on connaît les valeurs de X et de Y. Cependant, cette approche
nécessite de fournir au préalable à l’IA cette fameuse structure de base Y = aX +
b à affiner en fonction des données existantes.
La régression linéaire n’est cependant pas la seule structure mathématique
utilisée dans le machine learning, loin de là. Différentes structures sont plus
adaptées selon le type de tâches à effectuer (voir Figure 13 pour des exemples).
Par exemple, si l’objectif est de prédire si un consommateur restera fidèle à une
marque, l’utilisation de régressions logistiques peut s’avérer utile. Ces dernières
sont particulièrement adaptées à la classification binaire, c’est-à-dire la division
d’une variable en deux catégories (fidèle vs non-fidèle). De nombreuses autres
structures algorithmiques sont également employées en machine learning,
comme les arbres de décision, les algorithmes bayésiens, ou encore les
algorithmes de clustering. Le choix de la structure mathématique dépend de la
nature et de la complexité de la relation entre les données disponibles et les
résultats attendus. En fonction des besoins spécifiques de chaque situation,
diverses structures peuvent être envisagées.
Figure 13. Illustration de structures algorithmiques de machine learning

Source : autrice, adaptée de


https://www.researchgate.net/publication/339541927_Applications_of_Artificial_Intelligence_to_Electronic_Health_Record_
Cependant, il existe une structure algorithmique qui a prouvé son efficacité
dans de nombreux cas de figure et applications complexes et qui a ainsi
grandement contribué à la révolution de l’intelligence artificielle : les réseaux de
neurones.
Une fois de plus, comme pour d’autres concepts mathématiques liés au
machine learning, les réseaux de neurones ne sont pourtant pas nouveaux. Déjà
en 1957, Frank Rosenblatt, un chercheur en psychologie de l’université de
Cornell, avait développé le Perceptron, le tout premier réseau de neurones de
l’histoire (Rosenblatt, 1957). Dans les années 1980, le Navlab de l’université
Carnegie Mellon s’est lancé dans une initiative audacieuse : utiliser ces réseaux
de neurones pour développer ALVINN (Autonomous Land Vehicle In a Neural
Network), l’une des premières voitures autonomes de l’histoire (Pomerleau,
1989). Toutefois, les technologies de l’époque ne permettaient pas d’atteindre
des résultats suffisamment satisfaisants, bien que l’approche mathématique ait
déjà été développée.
Mais alors concrètement, qu’est-ce exactement qu’un réseau de neurones ? Son
nom est très évocateur, puisqu’il tire son inspiration du fonctionnement
biologique du cerveau humain. Vous le savez sûrement, mais notre cerveau est
composé de milliards de neurones, qui sont des cellules qui communiquent entre
elles pour traiter et transmettre des informations. Chaque neurone est relié à
d’autres par des axones, qui fonctionnent comme des canaux de communication,
au sein d’un réseau. Si vous avez quelques souvenirs de vos cours de biologie,
vous savez peut-être que ces axones permettent la transmission de messages sous
forme de signaux électriques d’un neurone à un autre. Lorsqu’un neurone reçoit
une certaine quantité de signaux de la part de ses voisins, et si cette quantité
atteint un seuil spécifique, le neurone s’active et envoie à son tour un signal aux
neurones avec lesquels il est connecté. Cela se passe en une fraction de seconde
et c’est ainsi que notre cerveau est capable de réaliser des tâches complexes. Les
chercheurs en intelligence artificielle ont cherché à imiter ce processus pour
créer des réseaux de neurones artificiels. Dans ce modèle, chaque neurone est
une sorte de petit calculateur qui reçoit des entrées, les traite à travers une
fonction mathématique, et produit une sortie. Attention, il est important de
souligner que les chercheurs ne tentent absolument pas de reproduire un cerveau
humain en utilisant des statistiques. Ils s’inspirent seulement de cette structure
pour développer des modèles mathématiques complexes et efficaces.
Prenons une application concrète. Supposons qu’un neurone relie des entrées X
(X1, X2, X3, …, Xn) à une sortie Y, chacune de ces entrées ayant une valeur
attribuée. Vous pouvez définir un seuil S, de manière à ce que si la somme des
valeurs X en entrée dépasse S, alors Y = 1 ; sinon, Y = 0. Ce seuil S va s’ajuster
en fonction des données d’entrée X et des sorties Y disponibles pour
l’entraînement, pour obtenir la valeur optimale de S qui permettra de faire les
meilleures prédictions de Y possibles, en fonction de données X. Exactement de
la même façon que les paramètres a et b se modifient dans une régression
linéaire de type Y = aX + b, en fonction des données observées. Bien que ce
concept puisse sembler simple, il devient particulièrement intéressant lorsque
l’on associe un nombre important de neurones entre eux pour accomplir des
tâches plus complexes. Vous obtenez alors un réseau de neurones artificiels liés
les uns aux autres par de nombreux chemins possibles, ce qui permet une
représentation sophistiquée et plus précise de la relation entre les entrées X et les
sorties Y. C’est extrêmement utile lorsque vous cherchez à modéliser des
phénomènes complexes impliquant de nombreuses caractéristiques et traitement
différents.
En général, ces réseaux de neurones sont structurés en plusieurs couches,
chacune ayant un rôle distinct (voir Figure 14). La première est la couche des
neurones d’entrée, qui reçoit les données brutes. Son nombre de neurones
correspond à la dimensionnalité des données. Ces neurones transmettent
l’information aux couches suivantes pour un traitement plus approfondi. Ensuite,
viennent les couches des neurones intermédiaires, où les transformations
mathématiques ont lieu, permettant au réseau d’apprendre des motifs complexes.
Le nombre et la taille de ces couches dépendent de la complexité du problème.
Finalement, la couche des neurones de sortie produit le résultat final, qu’il
s’agisse d’une classification, d’une prédiction, ou autre type de résultat. Cette
structure multicouche et ces mécanismes d’ajustement permettent au réseau de
neurones de capturer des relations complexes dans les données et de s’adapter
continuellement. Au fur et à mesure de l’entraînement, les seuils et les poids des
connexions entre les neurones sont ajustés, optimisant les réponses du réseau en
fonction des données apprises. Ces derniers sont des paramètres qui s’ajustent et
qui finiront par privilégier certains chemins plutôt que d’autres. Plus
l’algorithme s’entraîne, plus il affinera la définition de ces seuils et chemins.
Figure 14. Représentation schématique d’un réseau de neurones
Source : autrice
C’est d’ailleurs un phénomène similaire à ce qui se passe dans notre cerveau.
Lorsque vous apprenez, la force des connexions entre vos neurones change :
certains chemins deviennent plus développés, tandis que d’autres tendent à
s’affaiblir. Ce processus est connu sous le nom d’« efficacité synaptique ». De la
même manière, dans un réseau de neurones artificiel, certains neurones et
chemins auront un poids plus important dans la prédiction, grâce à
l’entraînement sur de nombreuses données.

2. LES TROIS RUPTURES QUI ONT PERMIS CETTE RÉVOLUTION


DU MACHINE LEARNING
Nous avons vu qu’il y avait eu un renouveau dans la recherche en IA dans les
années 1990 avec le développement de systèmes basés sur du machine learning.
Mais le machine learning comme les réseaux de neurones ne datent pas d’hier.
Alors, pourquoi a-t-il fallu attendre les années 1990 pour que cela fonctionne ?
Nous pouvons identifier trois grandes ruptures qui, en se nourrissant les unes les
autres, ont permis d’aboutir à des IA fonctionnelles et capables de fournir des
résultats impressionnants. D’une part, l’explosion des données disponibles grâce
au développement du Big Data. D’autre part, l’élaboration de nouveaux
algorithmes plus avancés et sophistiqués, comme les réseaux de neurones
profonds par exemple. Enfin et surtout, l’amélioration des capacités de calcul
permise par des processeurs toujours plus performants.
2.1. L’explosion du Big Data et de la datafication
Le machine learning est un concept basé sur l’utilisation de données. Sans
données, il n’y aurait pas d’apprentissage pour les machines. C’est le principe
même de l’approche : fournir à la machine des données, qui sont autant
d’exemples, pour qu’elle puisse s’entraîner et « comprendre » la tâche à
accomplir. Plus l’IA a de données à sa disposition, plus elle peut affiner son
algorithme, et donc être performante. Faire du machine learning sans donnée, ça
n’a donc aucun sens. C’est comme si vous deviez apprendre à faire du vélo sans
jamais pouvoir en voir un ou essayer d’en faire. Plus vous avez d’expérience et
d’exposition à différentes situations, plus vous devenez compétent. De la même
manière, plus on expose la machine à des données, plus elle peut s’entraîner et
devenir efficace.
C’est dans ce contexte que l’émergence du Big Data a apporté un véritable
tremplin pour le développement du machine learning. Internet a ouvert les portes
à une production et un partage exponentiels de données de toutes sortes. En une
décennie, le volume de données produites a été multiplié par trente (Gaudiaut,
2021). Ce développement en masse des données est récent puisque si l’on
s’amusait à numériser tous les écrits produits depuis le début de l’humanité
jusqu’au début des années 2000, cela représenterait environ un volume de 5
milliards de gigabits. Aujourd’hui, c’est la quantité de données que nous
générons en deux jours seulement. Ainsi, jamais au cours de toute notre histoire,
nous n’avons eu affaire à une aussi forte production d’informations et de
données (voir Figure 15). Ces données proviennent de sources diverses et
variées, issues de notre vie quotidienne de plus en plus digitalisée : images et
textes sur Internet, activités d’achat, interactions sur les réseaux sociaux,
données de streaming et de jeux vidéo, etc. Pour vous donner une idée, en 2018
on comptabilisait que durant chaque minute, environ 481 000 tweets étaient
publiés, 18 millions de SMS, 38 millions de messages sur WhatsApp et 187
millions de mails étaient envoyés, 25 000 gifs étaient partagés sur Messenger et
3,7 millions de requêtes étaient faites sur Google2. Ces chiffres, en constante
augmentation, illustrent la masse considérable de données échangées et
disponibles.
Figure 15. Le Big Bang du Big Data
Source : autrice, adaptée de Statista. https://fr.statista.com/infographie/17800/big-data-evolution-volume-
donnees-numeriques-genere-dans-le-monde/

Ces vastes réserves de données sont souvent gérées et distribuées par des data
brokers, des courtiers de données. Ils collectent des informations à partir d’une
multitude de sources, les organisent et les vendent à des entreprises ou des
organisations qui peuvent les utiliser pour diverses applications, comme le
marketing, la recherche ou l’apprentissage automatique.
De plus, de nombreuses bases de données rendent ces informations
exploitables pour l’entraînement des algorithmes de machine learning.
ImageNet, par exemple, créée dès 2006 par le laboratoire de Stanford, propose
une base de données de plus de 15 millions d’images labellisées en haute
résolution, avec environ 22 000 catégories différentes. On trouve par exemple
des milliers d’images de chats qui sont toutes étiquetées comme étant des chats,
pareil pour les chiens, les voitures, les immeubles, les cancers de la peau, etc.
Ces images labellisées peuvent ainsi être utilisées pour entraîner des algorithmes
de reconnaissance d’image.
L’univers de la data s’est également davantage élargi avec le phénomène de
datafication, qui vise à rendre le monde mesurable en tout point en générant des
nouvelles data. En effet, il s’agit d’un processus par lequel de plus en plus
d’aspects de la vie sont transformés en données exploitables et analysables. Cela
est possible grâce au développement de l’Internet des Objets ou Internet of
Things (IoT) en anglais et à la prolifération d’appareils mobiles et de capteurs.
Prenons l’exemple des wearables (voir Figure 16), terme inventé par Microsoft
pour désigner les appareils portables que l’on peut porter sur soi et qui mesurent
différents aspects de notre vie quotidienne (Dugain & Labbé, 2016). Il peut
s’agir de bracelets de fitness, de montres intelligentes, ou encore de vêtements
équipés de traceurs GPS, comme certains commercialisés en France par des
marques comme Gémo par exemple3. Ces appareils peuvent suivre notre rythme
cardiaque, notre niveau d’activité physique, le nombre de pas que nous faisons
dans une journée, nos habitudes de sommeil, et bien plus encore. Ce type de
données peuvent être utilisées par des IA pour améliorer les prédictions sur la
santé des individus, mieux détecter de manière précoce les problèmes de santé
ou encore fournir du coaching personnalisé via des systèmes de
recommandations d’activités ou de routines par exemple.
Figure 16. Quelques exemples de wearables

Source : autrice ; photos issues de différents sites4


Un exemple intéressant de l’usage de ces données est celui de l’entreprise
Fitbit, leader du marché des wearables et basée à San Francisco. En utilisant les
informations collectées par ses appareils, Fitbit fournit aux utilisateurs un
tableau de bord détaillé de leur activité physique et sportive. Ces données
permettent non seulement de suivre des paramètres personnels tels que le poids,
la qualité du sommeil et les routines d’entraînement, mais elles offrent
également un moyen pour les utilisateurs d’optimiser leur sommeil, améliorer
leur activité et surveiller leur santé. De plus, Fitbit va au-delà du simple suivi, en
utilisant ces données pour enrichir l’expérience utilisateur grâce à des
algorithmes d’intelligence artificielle, par exemple en proposant d’ajuster la
température ambiante via le thermostat lors d’une séance de sport ou en lançant
une playlist adaptée à l’exercice en cours. Cette pratique fait partie d’un
mouvement plus large, appelé quantified self ou « quantification de soi ». Il
s’agit d’un processus d’automesure qui englobe divers aspects de notre vie
quotidienne. Tandis que certains voient ce phénomène comme une opportunité
d’optimisation de soi (benchmark personnel), d’autres le considèrent comme une
potentielle intrusion dans la vie privée, mettant en exergue le besoin de trouver
un équilibre entre les avantages potentiels et les défis éthiques de ce type de
technologie. Quoi qu’on en pense, ce phénomène de fond a contribué à
l’explosion du Big Data et a servi à enrichir des bases de données utilisées pour
entraîner différents types d’algorithmes de machine learning.
L’exploitation de ces données dans le développement des IA a également été
grandement facilitée par le développement du cloud computing. Les solutions de
stockage dans le cloud ont permis de gérer ces volumes massifs de données, tout
en fournissant la puissance de calcul nécessaire pour faire fonctionner des
algorithmes de machine learning toujours plus sophistiqués. D’ailleurs certaines
entreprises ont saisi l’opportunité de proposer des services de stockage en ligne
gratuits, comme Google Photos par exemple, afin d’encourager les utilisateurs à
y sauvegarder leurs photos. Ainsi, en ayant accès à une masse conséquente de
données visuelles, ces entreprises ont pu les utiliser pour entraîner et
perfectionner leurs propres IA de reconnaissance d’image. Cette démarche a
permis d’améliorer l’efficacité des algorithmes, tout en fournissant un service
gratuit aux utilisateurs. Cette synergie entre le stockage en cloud et le machine
learning a donc joué un rôle clé dans l’accélération du développement de
l’intelligence artificielle.
En somme, la data est omniprésente, sous de nombreuses formes, et représente
une matière première précieuse pour le développement et le perfectionnement
des IA. Son explosion au cours des dernières années a constitué une rupture
majeure dans l’essor du machine learning.

2.2. La capacité de calcul augmentée


Pour entraîner des algorithmes à l’aide de gros volumes de données, il était
cependant nécessaire de disposer de machines suffisamment performantes avec
une capacité de calcul importante. Les premiers succès du machine learning ont
ainsi été possibles dès lors que l’on avait des processeurs assez puissants. Par
exemple, sans un processeur de haute performance, l’IA Deep Blue d’IBM
n’aurait pas été en mesure de triompher lors de sa célèbre partie d’échecs contre
Garry Kasparov. Ce succès peut en effet être attribué à l’exploitation de la
puissance brute de calcul du processeur, qui a permis à Deep Blue d’évaluer des
millions de combinaisons possibles en un laps de temps extrêmement court. Au
fil des décennies, le matériel n’a cessé d’évoluer, avec des processeurs de plus en
plus puissants et de taille de plus en plus réduite, tout en devenant moins coûteux
à produire, permettant d’effectuer d’énormes volumes de calculs plus facilement
et rapidement.
Pour mieux comprendre ces évolutions, examinons brièvement ce que sont ces
fameux processeurs. En quelques mots, ce sont des composants matériels
essentiels que vous retrouvez au cœur de vos appareils technologiques, tels que
vos ordinateurs ou vos smartphones. Leur taille n’a cessé de se réduire tout en
gagnant en puissance de calcul. Globalement, on peut identifier trois types de
processeurs (Nikolić et al., 2022).
Le premier type est le CPU, ou Central Processing Unit. Le CPU est le cœur
de la machine, il traite une grande variété de tâches et distribue également des
tâches plus spécifiques aux autres composants du système. Il est en quelque sorte
le chef d’orchestre qui veille au bon fonctionnement de l’ensemble.
Ensuite, nous avons le GPU, ou Graphics Processing Unit. Connu comme le
processeur graphique de la machine, il gère tout ce qui est lié au calcul
graphique, tel que l’affichage des pixels ou le traitement des vidéos et des
images. Au début, le GPU était principalement utilisé pour des tâches liées au
traitement visuel. Cependant, il est aujourd’hui de plus en plus employé pour des
tâches plus diversifiées et généralistes grâce à son niveau de performance
croissant. L’un des principaux avantages du GPU est sa capacité à effectuer de
nombreux types de calculs en parallèle. Ces dernières années, le GPU a
nettement gagné en performance, devenant plus puissant qu’un CPU (voir Figure
17) et il est maintenant souvent utilisé pour entraîner des algorithmes de machine
learning.
Figure 17. Évolution des performances des CPU et GPU
Source : autrice, adaptée de
https://www.researchgate.net/publication/236633024_Towards_Improved_Aeromechanic_Simulations_Using_Recent_Advan

Enfin, il y a le TPU (Tensor Processing Unit), qui permet d’accélérer


considérablement les calculs et qui, lui, est surtout utilisé pour faire du deep
learning (un type particulier et plus avancé de machine learning, que nous
aborderons plus en détail juste après), puisqu’il a été spécialement conçu par
Google pour cela. Il s’agit donc d’un type de processeur qui n’est aujourd’hui
pas accessible au grand public mais qui est utilisé principalement dans les
centres de données et infrastructures cloud de grandes entreprises technologiques
comme Google, Amazon ou Microsoft. Il est utilisé pour accélérer les calculs au
sein des réseaux de neurones et pour entraîner et déployer des modèles de
machine learning à grande échelle.
Ces évolutions technologiques ont rendu les machines plus performantes et
plus rapides, favorisant le développement du machine learning. De plus,
l’avènement du cloud computing a joué un rôle majeur, en permettant
d’externaliser la capacité de calcul. Les entreprises peuvent désormais accéder à
des machines puissantes pour exécuter leurs algorithmes de machine learning,
sans nécessairement devoir posséder ces machines. Cela a permis le
développement d’algorithmes plus sophistiqués, aboutissant à une amélioration
significative des performances en machine learning.

2.3. Le développement de nouveaux algorithmes


Dans le but d’éviter une utilisation excessive de la force brute par les IA, qui se
traduit par le calcul systématique de toutes les combinaisons possibles, les
chercheurs ont également développé des algorithmes plus sophistiqués. Parmi
ces avancées, les réseaux de neurones se distinguent par leur capacité à calculer
un nombre restreint de combinaisons de manière plus intelligente et efficace.
Grâce aux avancées technologiques et à la disponibilité croissante de données,
ces réseaux de neurones ont gagné en complexité, produisant des résultats
nettement plus performants que les tentatives des années 1950.
De plus, il est important de préciser qu’un réseau de neurones ne consiste pas
en un simple empilement de neurones. En réalité, il existe diverses architectures
de réseaux de neurones qui ont été développées et qui fonctionnent mieux que
d’autres selon le contexte et l’objectif. Parmi elles, on trouve notamment les
réseaux de neurones convolutionnels ou Convolutional Neural Network (CNN)
en anglais. Ces derniers sont particulièrement efficaces pour le traitement des
images. Ils utilisent une technique spéciale de « balayage » pour reconnaître les
motifs et les structures au sein des images, rendant ainsi possibles la
classification et la reconnaissance d’objets. On trouve aussi par exemple le
développement des réseaux de neurones récurrents ou Recurrent Neural Network
(RNN) qui, quant à eux, sont adaptés pour traiter des séries temporelles ou des
séquences de données. Ils ont la particularité de conserver une mémoire des
entrées précédentes dans la séquence, ce qui les rend idéaux pour des
applications telles que la traduction automatique ou la génération de texte, où la
compréhension du contexte est cruciale.
Plus largement, une forme de réseau de neurones qui s’est développée ces
dernières années et qui est particulièrement efficace dans l’exécution de tâches
complexes, sont les « réseaux de neurones profonds ». Ces réseaux se
distinguent par un nombre élevé de couches de neurones intermédiaires entre les
entrées et les sorties. C’est précisément avec ces réseaux que l’on met en œuvre
le deep learning ; le terme deep (profond) faisant explicitement référence à la
profondeur du réseau, caractérisée par son nombre important de couches. Les
progrès accomplis dans l’amélioration des algorithmes des réseaux de neurones
ont contribué au développement du deep learning. Le chercheur français, Yann
LeCun, a été un des pionniers de ces recherches dès les années 1990, à une
époque où peu d’attention était portée aux réseaux de neurones profonds.
D’autres types d’algorithmes, perçus comme plus prometteurs, monopolisaient
alors l’attention des chercheurs.
Prenons l’exemple de la reconnaissance d’image pour bien comprendre
l’impact des avancées du deep learning. Chaque année, des compétitions de
reconnaissance d’image sont organisées pour évaluer et comparer les
performances des différents algorithmes sur lesquels les chercheurs travaillent.
Jusqu’aux années 2010, les algorithmes de deep learning ne se distinguaient pas
particulièrement face aux autres techniques, les meilleurs algorithmes de
reconnaissance d’image affichant des taux d’erreur autour de 25-30 %
(Russakovsky et al., 2015). Cependant, 2012 marque un tournant majeur dans
l’histoire de l’intelligence artificielle et de la reconnaissance d’image. Lors du
Large Scale Visual Recognition Challenge de 2012, un algorithme de deep
learning s’est révélé, pour la première fois, supérieur à tous les autres
concurrents, en affichant un taux d’erreur d’environ 15 % (Russakovsky et al.,
2015). Cette diminution drastique du taux d’erreur, inédite jusqu’alors, a mis en
lumière le potentiel extraordinaire du deep learning et ce taux n’a cessé de
diminuer depuis lors. Resté dans l’ombre pendant de nombreuses années, Yann
LeCun est alors propulsé sur le devant de la scène, devenant une « superstar » de
l’intelligence artificielle. À tel point qu’il ne passe pas inaperçu aux yeux de
Facebook, qui le recrute rapidement pour diriger son laboratoire d’intelligence
artificielle, le FAIR (Facebook AI Research)5.
Au-delà des succès retentissants de Yann LeCun et du deep learning, il est
important de mentionner que ces dernières années, le développement de
nouveaux algorithmes, en particulier de réseaux de neurones plus complexes, a
été grandement facilité par les deux autres piliers mentionnés précédemment, à
savoir l’augmentation drastique de la puissance de calcul et l’accessibilité
grandissante du Big Data. En effet, au fur et à mesure que ces réseaux de
neurones deviennent plus complexes, ils requièrent plus de puissance de calcul et
de données pour se perfectionner.
Ainsi, ces trois facteurs – l’explosion des capacités de calcul, la disponibilité
accrue de données et le développement de nouveaux algorithmes – se sont
mutuellement renforcés, conduisant aux succès incroyables de l’intelligence
artificielle basée sur le machine learning. En associant une capacité de calcul
stupéfiante, des algorithmes de plus en plus sophistiqués et une masse de
données en constante expansion, les machines ont substantiellement gagné en
efficacité. Il est courant de dire : « Pas de data, pas d’IA », car pour apprendre et
affiner leurs algorithmes, les machines ont besoin de traiter d’immenses volumes
de données. Ces données, gérées par des processeurs de plus en plus
performants, permettent une amélioration continue des algorithmes. C’est donc
la combinaison de ces trois ruptures majeures qui a permis la révolution de l’IA
que nous connaissons actuellement.

3. DU MACHINE LEARNING AU DEEP LEARNING


Nous avons jusqu’à présent évoqué différents concepts liés à l’intelligence
artificielle, comme l’automatisation, les systèmes experts, le machine learning et
le deep learning. Mais comment ces concepts s’interconnectent-ils pour former
le domaine de l’IA ?
L’un des premiers aspects que nous avons évoqué est l’automatisation, qui
historiquement inclut notamment les systèmes experts et certains algorithmes de
base. Ces systèmes, qui sont principalement fondés sur des règles prédéfinies,
étaient autrefois les représentants les plus courants de l’IA. Un pas plus loin dans
la complexité, nous trouvons le machine learning, qui est une forme
d’automatisation mais fondée sur un élément crucial : l’apprentissage à partir des
données. Le machine learning est donc une catégorie spécifique de l’IA, dans
laquelle les systèmes ont la capacité d’apprendre et de s’améliorer
automatiquement en fonction des données qu’ils traitent. Enfin, présent dans le
domaine du machine learning, nous trouvons le deep learning. Cette sous-
catégorie spécifique utilise des structures appelées réseaux de neurones
profonds, qui ont permis d’augmenter de manière significative les performances
de l’IA, sur des tâches de plus en plus complexes (voir Figure 18).
Figure 18. Les sous-catégories de l’intelligence artificielle
Source : autrice

3.1. Les réseaux de neurones profonds


Dans les chapitres précédents, nous avons abordé le concept des réseaux de
neurones, ces structures computationnelles conçues pour traiter et interpréter des
données complexes. Ces réseaux peuvent analyser divers types d’informations –
des caractéristiques d’appartements, des critères de consommateurs, des
habitudes d’utilisation de médias sociaux, et même des images ou vidéos – dans
le but de prédire des résultats, de catégoriser des éléments, ou de découvrir des
modèles sous-jacents.
Il se trouve que lorsque le volume des données en entrée augmente
significativement, les réseaux de neurones standards peuvent rencontrer des
limites. Pour illustrer cela, prenons l’exemple de la reconnaissance d’image. Une
image est, par essence, un ensemble de pixels, et chaque pixel est décrit par trois
valeurs de couleurs (rouge, vert et bleu). Assez rapidement, même une image de
petite taille peut représenter une quantité considérable de données à traiter.
Prenons par exemple une image de chat de 500 x 500 pixels. Malgré sa petite
taille, elle représente déjà un total de 250 000 pixels. Si l’on considère les trois
valeurs de couleurs pour chaque pixel, cela nous donne 750 000 valeurs à traiter
par notre réseau de neurones, ce qui peut se révéler particulièrement ardu.
Historiquement, la solution à ce problème de trop grosses quantités de données
pour traiter la reconnaissance d’image, consistait à prétraiter l’image pour en
extraire des caractéristiques particulières. Pour notre exemple du chat, il pourrait
s’agir d’identifier la présence d’oreilles pointues, de moustaches, d’une truffe
triangulaire, etc. C’est l’homme qui, manuellement, définissait ces critères pour
synthétiser ce qu’il cherchait à prédire. Ensuite, un algorithme interprétait
l’image non pas dans sa globalité, mais à travers le prisme de ces caractéristiques
prédéfinies. Cela réduisait la quantité de données à traiter et rendait l’usage du
réseau de neurones plus efficace. Néanmoins, cette méthode n’est pas sans
failles. En effet, sa performance repose largement sur la pertinence des
caractéristiques définies, qui peuvent parfois être incomplètes ou subjectives. De
plus, les exceptions et les cas particuliers peuvent poser problème. Par exemple,
comment identifier un chat qui aurait perdu une oreille ou sa queue ? La
méthode conventionnelle pourrait échouer à reconnaître ces images comme
représentant des chats.
C’est ici qu’intervient le deep learning. Au lieu de passer par une étape
d’abstraction où l’homme définit les caractéristiques à rechercher, le deep
learning confie cette tâche directement à l’algorithme. En s’entraînant sur des
milliers d’images, l’algorithme va apprendre à détecter par lui-même les traits
pertinents pour identifier un chat. Cependant, nous venons de dire qu’il n’était
pas possible de traiter tous les pixels, car cela faisait trop d’entrées pour notre
réseau de neurones. Alors comment faire pour gérer une telle quantité de
données ? Le secret réside dans l’évolution des réseaux de neurones. Des
chercheurs ont persisté à travailler sur le développement de ces structures,
malgré la complexité inhérente au traitement de volumes massifs de données
(LeCun et al., 2015). En particulier, dans le domaine de la reconnaissance
d’image, l’introduction d’algorithmes de deep learning qui contiennent des
« couches convolutionnelles » est une innovation clé. Ces couches appliquent
des filtres sur l’image pour en extraire des caractéristiques locales, telles que les
bords ou les textures, réduisant ainsi la dimensionnalité de l’image tout en
conservant les informations essentielles. Ainsi, au lieu de traiter chaque pixel
individuellement, l’algorithme traite des régions spécifiques de l’image,
diminuant de manière significative le nombre de valeurs à analyser (voir
Figure 19). Ces algorithmes de deep learning, avec leurs couches
supplémentaires sophistiquées, suppriment donc le besoin d’une intervention
humaine qui était autrefois intégrée dans la reconnaissance d’image pour définir
les caractéristiques à analyser. L’algorithme se charge lui-même de cette tâche,
en s’adaptant et améliorant ses performances au fil de son entraînement sur un
grand volume de données.
Figure 19. Évolution dans la reconnaissance d’image avec le deep learning

Source : autrice ; photo de chat de Annette Meyer sur Pixabay.com

Ces avancées dans les architectures algorithmiques, couplées à l’accès à des


volumes de données de plus en plus importants pour l’entraînement des
algorithmes et à l’amélioration constante des processeurs ont grandement
contribué à la progression du deep learning, le rendant capable de gérer des
volumes massifs de données et de résoudre des problèmes aussi complexes que
la reconnaissance d’image.
Pour résumer, le deep learning est une extension des réseaux de neurones, mais
avec un nombre plus important de couches de neurones, d’où son autre nom : les
réseaux de neurones profonds. Ces couches supplémentaires peuvent être de
différentes natures et présenter des niveaux de sophistication variés, afin de
s’adapter au mieux aux spécificités des tâches à réaliser. Le deep learning est
donc un sous-domaine du machine learning, capable de traiter des tâches plus
complexes grâce à une structure plus élaborée. Cependant, il est à noter que ces
réseaux plus profonds, du fait de leur niveau de sophistication plus élevé,
requièrent une quantité plus importante de données pour l’entraînement ainsi
qu’une puissance de calcul conséquente.

3.2. De IBM Deep Blue à Google DeepMind et IBM Watson


Nous l’avons vu, en 1997, une avancée majeure dans l’intelligence artificielle a
été réalisée par IBM avec son système Deep Blue. Cette machine a réussi
l’exploit de battre le champion du monde d’échecs Garry Kasparov, établissant
un précédent important dans le domaine de l’IA. Cependant, contrairement à ce
que son nom pourrait suggérer, IBM Deep Blue n’utilisait pas de deep learning.
La victoire a été atteinte grâce à la force brute de calcul, Deep Blue étant capable
de calculer environ 200 millions de positions par seconde. Pour un jeu d’échecs,
avec environ 20 coups possibles à chaque tour, une telle approche était faisable.
Néanmoins, il y avait un autre jeu qui semblait inaccessible pour une IA basée
sur la force brute de calcul : le jeu de Go. Le jeu de Go, un jeu japonais qui a
pour but d’occuper le plus d’espace sur le plateau en bloquant les pions de
l’adversaire, offre une complexité beaucoup plus grande. Avec environ 200
coups possibles à chaque tour, le nombre total de combinaisons possibles est
astronomique : environ 10172 combinaisons ! Pour mieux se représenter ce chiffre
vertigineux, écrivons-le en entier : 10 000 000 000 000 000 000 000 000 000 000
000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000
000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000
000 000 000 000 000 000 000 000 000. C’est plus que le nombre d’atomes dans
l’univers ! Une approche qui consisterait à calculer toutes les combinaisons n’est
donc pas réalisable pour un tel jeu. Kasparov lui-même avait noté la complexité
du jeu de Go par rapport aux échecs. Il avait déclaré dans le New York Times :
« Le jour où un ordinateur bat un champion de Go humain, ce sera le signe que
l’intelligence artificielle commence vraiment à devenir aussi bonne que la
réelle6. »
Grâce aux progrès significatifs dans les domaines du machine learning et du
deep learning, une entreprise prometteuse dans le monde de l’IA, Google
DeepMind, s’est attaquée au défi du jeu de Go. Pour cela, ils ont mis au point
AlphaGo, un programme qui, contrairement à l’approche de force brute d’IBM
Deep Blue, a été conçu pour apprendre par lui-même à naviguer dans la
complexité du jeu de Go, sans avoir à calculer l’ensemble des combinaisons
possibles. En s’appuyant sur des nouvelles approches de deep learning, AlphaGo
a réalisé l’exploit en 2016 de vaincre Lee Sedol, champion du monde du jeu de
Go de l’époque. Cette victoire a été obtenue non pas en calculant toutes les
combinaisons possibles, mais plutôt en améliorant continuellement son jeu à
travers la répétition et l’expérience, grâce à des méthodes d’apprentissage plus
élaborées et intelligentes. AlphaGo a calculé environ 60 000 positions par
seconde, un chiffre bien en dessous des 200 millions de positions par seconde
calculées par Deep Blue, démontrant une évolution marquante dans l’approche
de l’IA face aux jeux de stratégie.
Parallèlement à ces avancées, IBM a également continué à repousser les
limites de l’intelligence artificielle de son côté. En 2011, bien avant le succès
retentissant d’AlphaGo, IBM avait déjà fait une avancée majeure dans le
domaine de l’IA avec son programme appelé Watson. Toujours dans l’univers
des jeux, Watson a défié et vaincu des champions du jeu télévisé américain
Jeopardy!7. Le format de ce jeu est assez particulier : à partir de réponses
communément appelés des indices (clues en anglais), trois candidats doivent
trouver la question correspondante. Les indices peuvent couvrir un large éventail
de catégories, de l’histoire et de la littérature à la science et à la culture
populaire. Chaque bonne « question » posée rapporte une certaine somme
d’argent, tandis qu’une mauvaise « question » peut faire perdre de l’argent au
participant.
Contrairement aux échecs et au Go, Jeopardy! ne repose pas seulement sur des
stratégies claires et des règles définies, mais exige également une vaste
compréhension de la langue, la capacité à saisir le sens des phrases et une
connaissance générale étendue sur un large éventail de sujets. Le défi majeur
pour Watson était de comprendre et d’interpréter correctement les nuances
linguistiques, un aspect du raisonnement humain qui a longtemps été considéré
comme inaccessible pour l’IA. De plus, Watson devait être capable de
comprendre le format unique de Jeopardy!, où chaque indice est fourni sous
forme de réponse et les participants doivent formuler leurs réponses sous forme
de questions.
La victoire de Watson a suscité un immense intérêt dans les médias, laissant
présager un avenir où les IA pourraient non seulement rivaliser avec les humains
dans des tâches de calcul intensif, mais aussi dans la compréhension du langage
et de la complexité des interactions humaines. Cela a ouvert un tout nouveau
champ d’application pour l’IA, notamment dans des domaines tels que
l’assistance personnelle, l’éducation, la santé et plus encore. Les machines
capables de comprendre et de traiter la langue humaine pouvaient désormais être
envisagées non seulement comme des outils, mais aussi comme des
collaborateurs potentiels dans divers domaines.

3.3. Les applications concrètes du deep learning qui révolutionnent tous les
secteurs
Les avancées significatives du machine learning, et plus particulièrement du
deep learning, ont pavé la voie à l’adoption progressive de nouvelles utilisations
et applications de l’IA, souvent impressionnantes. Cela a entraîné une révolution
dans de nombreux secteurs. Voici quelques exemples pour illustrer cette
transformation.
Le secteur de la santé
Autrefois perçu comme un domaine nécessitant un niveau d’expertise et de
connaissances tel, qu’une automatisation des tâches semblait inenvisageable, le
secteur de la santé est aujourd’hui l’un de ceux qui bénéficient le plus des
avancées en intelligence artificielle. Ce secteur regorge d’applications de l’IA
qui se démarquent par leur pertinence et leur efficacité.
De multiples aspects de la médecine sont concernés. Tout d’abord, on trouve
l’ensemble des activités liées à la médecine prédictive. Les IA, en analysant et
en extrapolant à partir de données massives qui incluent de nombreux exemples
précis de cas cliniques, ont nettement progressé pour prédire l’apparition d’une
maladie chez un individu et son évolution potentielle. Comment cela fonctionne-
t-il ? Elles analysent une multitude d’informations issues des dossiers médicaux
des patients, comme les antécédents familiaux, le style de vie, les symptômes
enregistrés, les pathologies rencontrées, et bien plus. Un exemple d’application
de cette technologie est Babylon Health, une application britannique qui utilise
l’IA pour évaluer les symptômes des patients et les orienter vers le bon
professionnel de santé.
Un autre exemple de l’utilisation de l’IA dans la médecine prédictive est
l’analyse du patrimoine génétique d’un individu pour prédire les risques de
développer une maladie donnée. Auparavant, il était difficile de prévoir les
risques de développement de pathologies en se basant uniquement sur la
génétique étant donné la complexité du génome humain. Aujourd’hui, des IA
avancées permettent désormais une comparaison du génome d’un individu avec
une vaste base de données de génomes associés à différentes maladies. Ainsi,
l’IA peut aller encore plus loin dans l’analyse génomique car grâce à des
techniques d’apprentissage profond, elle est capable de déceler des patterns
spécifiques dans l’ADN qui pourraient indiquer une prédisposition à certaines
maladies. Cette nouvelle approche de la médecine personnalisée a déjà été
exploitée pour adapter les traitements en oncologie. Certaines mutations
génétiques rendent certains types de cancers plus sensibles à des thérapies
ciblées. En détectant ces mutations chez un patient, un médecin peut prescrire le
traitement qui s’avérera le plus efficace.
De plus, l’IA peut utiliser les dossiers médicaux des patients pour suivre
l’évolution d’une maladie une fois qu’elle est diagnostiquée, en analysant par
exemple comment des symptômes similaires ont évolué chez d’autres patients
ayant les mêmes caractéristiques. Cela permet aux professionnels de santé
d’anticiper le cours possible d’une maladie avec des millions de cas et d’ajuster
les traitements en conséquence. Une telle capacité de prédiction est également
utilisée dans le domaine de la santé mentale. Par exemple, des systèmes d’IA
comme celui de Woebot fournissent une thérapie cognitive comportementale et
peuvent prédire le risque de suicide ou de dépression en analysant les données
des médias sociaux.
Ces analyses de données peuvent aussi être intéressantes pour effectuer de la
prévention en population générale, afin d’anticiper des épidémies par exemple.
Et cela peut se faire à partir d’une diversité de données collectées et regroupées.
L’analyse des recherches effectuées sur Google pourrait permettre de
comprendre les effets de propagation de certains virus, en identifiant les
symptômes recherchés par les internautes. Google a d’ailleurs tenté de
développer un algorithme, Google Flu Trends, pour suivre et analyser les
potentielles épidémies de grippe à partir de 2008. Cependant, ses résultats étant
mitigés, il a cessé de fournir des prévisions à partir de 20158.
L’IA est également très utile pour la médecine de précision. Les algorithmes
entraînés sur un nombre considérable de données sont de plus en plus fiables
pour recommander des traitements personnalisés selon différentes pathologies et
états médicaux présents dans les dossiers des patients. Les algorithmes peuvent
également servir d’aide à la décision, en posant des diagnostics médicaux, sur
lesquels les médecins peuvent s’appuyer. La reconnaissance d’image est
notamment très utile pour identifier des cancers de la peau, des maladies des
yeux ou des cancers des poumons par exemple. À ce titre, l’IA médicale de
reconnaissance d’image développée par Google a été évaluée comme étant
efficace à 99 % dans la détection de cancers du sein, réalisant de meilleurs scores
de diagnostic que les médecins eux-mêmes (Liu et al., 2019).
IBM Watson Health fournit également des solutions de diagnostic et de
prévision des risques hautement efficaces. Ses IA sont très puissantes car elles
sont basées sur un grand nombre de données stockées, qui comprennent toutes
les maladies possibles, tous les symptômes existants, tous les diagnostics
précédents, tous les traitements prescrits par le passé, toutes les évolutions des
dossiers médicaux, et même les dernières recherches académiques.
Comparativement à un médecin qui n’a que quelques minutes pour effectuer un
examen et qui a une capacité limitée à se souvenir de toutes les maladies
passées, on comprend comment l’IA peut devenir plus efficace dans sa capacité
de prévision. De plus, même le médecin le plus consciencieux et sérieux qui soit,
ne peut pas connaître toutes les dernières maladies rares ni lire tous les articles
de recherche récents, une tâche qu’une IA peut accomplir sans problème.
Les IA peuvent absorber et analyser un nombre bien plus important de données
médicales que les médecins, malgré leur expérience et expertise. Ainsi, on s’est
rendu compte, tout comme pour l’IA médicale de Google, qu’IBM Watson
Health était meilleure pour diagnostiquer les cancers que les médecins eux-
mêmes9. Parmi les données traitées par ces systèmes d’IA, les images
radiologiques constituent une part importante, faisant de l’analyse d’imagerie
médicale l’un des principaux usages de l’intelligence artificielle en médecine.
L’IA dans le médical s’incarne aussi à travers les robots compagnons, qui se
révèlent particulièrement utiles pour les personnes âgées ou fragiles. Un autre
domaine qui bénéficie de l’IA est celui des prothèses. Des prothèses intelligentes
peuvent désormais imiter les mouvements naturels et s’adapter aux habitudes de
mouvement de chaque individu grâce à l’apprentissage automatique, offrant une
meilleure fonctionnalité et une plus grande facilité d’utilisation. Ces prothèses
utilisent des capteurs pour détecter les signaux musculaires dans les membres
restants, ce qui permet à l’IA d’apprendre et de prédire les intentions de
l’utilisateur en temps réel. Au fil des utilisations, l’IA affine ses algorithmes pour
mieux correspondre aux modèles de mouvement de l’individu et permettre une
synchronisation plus naturelle de la prothèse. En outre, nous avons aussi l’essor
de la chirurgie assistée par ordinateur. L’IA permet de développer des robots
chirurgiens capables d’effectuer des opérations avec une précision et une
efficacité croissantes. Ces robots peuvent d’ores et déjà remplacer des
chirurgiens pour certaines tâches.
Ces exemples cités sont loin de représenter une liste exhaustive des IA
présentes dans le médical, mais ils donnent une bonne idée de la manière dont
l’intelligence artificielle impacte progressivement le secteur et conduit à une
réflexion autour des nouvelles pratiques et des évolutions dans les métiers de la
santé.
Le secteur du sport
Le sport est un domaine dans lequel l’intelligence artificielle trouve également
de nombreuses applications, et l’essor du machine learning et du deep learning a
permis de repousser les limites de ce qui était technologiquement possible. Ces
avancées ont ouvert la voie à des applications innovantes et de plus en plus
performantes. Par exemple, en gymnastique, l’IA est utilisée pour évaluer les
prestations des athlètes avec une précision sans précédent (Logothetis, 2017).
Dans le football, elle permet une analyse en temps réel du match, afin
d’identifier les mouvements des joueurs, et mettre en lumière les failles dans le
jeu de l’adversaire, le tout pour suggérer des tactiques optimales en fonction de
l’évolution du jeu. Certaines équipes comme le Paris Saint-Germain utilisent ces
technologies qui leur permettent souvent d’analyser la position des joueurs, leur
vitesse, leur style de jeu et en déduire les meilleures stratégies à mettre en place.
L’IA joue également un rôle important dans la prévention des blessures. Des
capteurs intelligents surveillent les mouvements et l’effort des athlètes ; les
données collectées sont ensuite analysées pour identifier les gestes qui pourraient
entraîner des blessures, aidant ainsi à modifier les routines d’entraînement de
façon préventive. De plus, des avancées ont été faites dans l’évaluation de la
performance des sportifs. L’IA est utilisée pour analyser la technique et la
stratégie, ce qui permet aux entraîneurs de comprendre les points forts et les
faiblesses de leurs athlètes et de mettre au point des programmes d’entraînement
personnalisés.
Ces applications sophistiquées de l’IA ont pu voir le jour grâce à
l’augmentation de la collecte de données par des objets connectés très utilisés
par les sportifs, tels que les tee-shirts connectés, les machines de musculation
connectées, les bracelets connectés, etc. Les drones sont eux aussi de plus en
plus utilisés pour collecter des données supplémentaires, en particulier lors de
matchs de tennis, pour lesquels ils fournissent des informations précises sur le
placement des joueurs pour une analyse ultérieure. L’IA a également transformé
la manière dont les entraîneurs et les athlètes planifient les matchs à venir. Grâce
à des simulations de matchs basées sur l’IA, ils peuvent envisager divers
scénarios de match et élaborer des stratégies en conséquence.
Dans certains sports, l’IA a également conduit à l’apparition de robots
d’entraînement. Par exemple, dans le baseball ou le ping-pong, des robots pilotés
par l’IA peuvent lancer des balles avec des vitesses et des trajectoires
spécifiques, aidant les joueurs à améliorer leur technique sur des points
spécifiques.
Enfin, il convient de noter que l’IA dans le sport n’est pas seulement réservée
aux professionnels. De plus en plus, les particuliers utilisent ces technologies
pour améliorer leurs performances quotidiennes. Dans le domaine de la course à
pied, on a vu naître des produits et des services basés sur l’IA qui mesurent les
performances individuelles, optimisent les mouvements et fournissent des
recommandations de coaching personnalisées. Des objets connectés tels que des
baskets et des vêtements intelligents permettent une collecte de données encore
plus précise pour une analyse des peformances sportives. Nous le voyons avec
ces quelques exemples, les potentialités de l’IA dans ce domaine sont vastes et
continuent de se développer à un rythme rapide, en particulier avec le
développement des objets connectés.
Le secteur des transports
Les progrès importants dans les technologies d’intelligence artificielle
impactent également le secteur des transports de façon significative. La voiture
autonome est souvent citée comme l’exemple phare, qui révolutionnerait notre
conception de la mobilité. Désormais, les véhicules intègrent davantage de
fonctionnalités autonomes, telles que les assistances à la conduite ou les
systèmes de stationnement automatisé. Certaines voitures, comme celles
développées par Tesla qui sont équipées de la fonction autopilote, peuvent
quasiment se conduire seules, en particulier sur les autoroutes américaines.
Tesla, sous la direction d’Elon Musk, est en effet à l’avant-garde de ces
innovations. Depuis ses débuts, Tesla mise grandement sur l’IA pour ses
fonctionnalités « autopilotes ». Chaque mise à jour de leurs véhicules amplifie
leurs capacités d’autonomie. Musk a souvent fait des déclarations controversées
et hyper optimistes concernant l’avenir de l’autonomie (Paul, 2023). En effet, il a
plusieurs fois annoncé que les Tesla atteindraient une autonomie totale bien
avant ce qu’annonçaient bon nombre d’experts de l’industrie. Par autonomie
totale, on fait référence aux niveaux d’autonomie 4 et 5. En effet, les experts
divisent généralement la progression dans ce domaine en différents niveaux
d’autonomie (SAE International, 2018). Au niveau 0, il n’y a pas d’autonomie
du tout, le conducteur contrôle tous les aspects de la conduite. Le niveau 1
intègre des systèmes d’assistance à la conduite comme le régulateur de vitesse
adaptatif par exemple. Le niveau 2 offre une autonomie partielle où la voiture
peut prendre des décisions telles que l’accélération et la direction, mais nécessite
toujours la vigilance du conducteur. Le niveau 3 est celui de l’autonomie
conditionnelle : le véhicule peut gérer la plupart des situations, bien que le
conducteur puisse avoir à intervenir occasionnellement. Le niveau 4, lui, est
celui de l’autonomie élevée, où le véhicule peut gérer toutes les situations de
conduite dans certaines conditions ou environnements. Enfin, le niveau 5
représente l’autonomie totale, sans aucun besoin d’intervention humaine, peu
importe l’environnement ou les conditions de conduite. Typiquement, on ne
trouverait plus du tout de volant ou de levier de vitesse dans ces voitures 100 %
autonomes.
Au-delà des projets de Tesla, d’autres initiatives ont vu concrètement le jour :
des bus autonomes circulent déjà dans plusieurs régions du monde, de Las Vegas
à Paris en passant par le Japon (Soula, 2017). Grâce à l’IA et à une panoplie de
capteurs et de caméras, ces véhicules sont capables de se déplacer d’un point A à
un point B en totale autonomie. Les algorithmes de deep learning, nourris de
milliards de données, peuvent alors prendre des décisions de conduite – ralentir,
accélérer, tourner, s’arrêter devant un piéton, se garer, et plus encore.
Ces avancées technologiques, souvent citées pour illustrer le potentiel de l’IA,
pourraient permettre de réduire considérablement les accidents de la route, car
plus de 90 % de ces accidents seraient dus à des erreurs humaines (Singh, 2015).
En optimisant le flux routier, les embouteillages pourraient également être
réduits. Cependant, malgré l’existence de ces technologies, leur intégration à
notre quotidien se heurte à de nombreux obstacles. Les réglementations
routières, les enjeux de responsabilité juridique ou encore les questions liées aux
assurances sont autant de défis à surmonter avant de voir une généralisation des
véhicules 100 % autonomes.
Certains imaginent un changement complet dans la mobilité en général, dans
lequel les individus ne seraient plus propriétaires de leurs voitures, mais feraient
appel à des taxis autonomes stockés dans des grands parkings en périphérie des
villes, et qui les déposeraient à leur lieu de rendez-vous en très peu de temps.
Fini les accidents, les embouteillages et les difficultés à se garer en centre-ville.
Nous n’en sommes pas encore là, mais il est clair, que le développement et le
déploiement du véhicule autonome auront de gros impacts sur nos économies et
notre mobilité.
Enfin, au-delà des voitures autonomes, l’IA impacte également d’autres
moyens de transport. Par exemple, dans le secteur de l’aviation, des logiciels
basés sur l’IA optimisent les trajets des avions, réduisant ainsi les coûts et
l’empreinte carbone10. Dans le secteur maritime, des navires autonomes
commencent à voir le jour, promettant de révolutionner la navigation
commerciale11. De même, dans le secteur de la logistique, des entrepôts
automatisés utilisent des robots et des drones pour le stockage et la livraison, ce
qui a le potentiel de rendre la chaîne d’approvisionnement plus efficiente.
Le secteur de la justice et de la sécurité
On a pu également voir des solutions d’IA qui ont émergé progressivement
dans le secteur de la justice, grâce à l’impulsion des acteurs de la legaltech. Ces
derniers ont conçu des systèmes d’IA qui visent à épauler les juges, magistrats et
les avocats dans leurs tâches. Le rôle principal de ces systèmes est de faciliter la
résolution des cas judiciaires en proposant des arbitrages et des suggestions de
solutions.
L’un des avantages majeurs de l’utilisation de l’IA en justice, souvent mis en
avant, est sa capacité à réduire, voire éliminer, les biais humains. Par exemple,
une étude a révélé que le niveau de faim ou au contraire de satiété d’un juge
influençait clairement ses décisions (Danziger et al., 2011). Les conclusions de
cette étude suggéraient en effet qu’un juge ayant le ventre vide avant son
déjeuner tend à se montrer plus sévère dans ses jugements que lorsqu’il a déjà
mangé.
Pour contrer ces biais humains, les IA peuvent ainsi être utilisées en
complément des juges afin de prédire les chances de succès d’un procès et
recommander des solutions de défense adaptées, en fonction de tous les
paramètres enregistrés, comme des informations sur les profils, les lois en place,
les éléments du cas jugé, etc. Pour cela, l’IA aura été entraînée au préalable sur
des milliers d’affaires judiciaires pour comprendre les décisions précédentes qui
ont été prises et les cas de jurisprudence, mais elle aura également analysé tous
les textes de lois existants.
Dans cette même veine, le processus de découverte électronique, ou e-
Discovery, s’est vu grandement facilité grâce à l’IA12. En simplifiant le
processus de recherche et d’examen de documents dans le cadre de litiges et
d’enquêtes juridiques, l’IA permet d’identifier rapidement les documents
pertinents parmi des millions de fichiers. De plus, pour soutenir le travail des
avocats, des assistants virtuels basés sur l’IA, tels que Ross, ont vu le jour (De
Jesus, 2017). Ces derniers aident à rechercher des précédents juridiques pour
leurs affaires en analysant d’immenses bases de données juridiques en un temps
record. Par ailleurs, certains outils exploitent l’IA pour analyser les déclarations
de témoins afin d’évaluer leur crédibilité ou de détecter des signes de stress ou
de mensonge.
En lien avec la justice, l’usage de l’intelligence artificielle a également été
envisagé dans le cadre de la sécurité et de la justice prédictive. On a notamment
cherché à développer des IA pour détecter les profils à risque, identifier des liens
entre les individus pour retrouver des criminels, prédire les crimes et identifier
les zones prioritaires dans lesquelles la police devrait intervenir. C’est le principe
du predictive policing qui a rapidement été adopté par la police de Los Angeles
aux États-Unis. Ces IA permettent de se rendre en prévention dans les lieux où
des actes criminels seraient les plus probables. Toujours aux États-Unis, l’outil
COMPAS a été développé pour utiliser les technologiques d’intelligence
artificielle afin de faire une évaluation de la dangerosité potentielle des individus
(Teich, 2018). On évalue leur risque de récidive ou d’avoir des comportements
violents par exemple, en calculant des scores que les juges peuvent utiliser pour
émettre une sanction.
Néanmoins de telles technologies ont soulevé de gros débats et indignations.
Des organismes tels que Big Brother Watch ont émis de sérieuses réserves quant
à leurs utilisations13. Si ces IA sont de plus en plus efficaces, notamment pour ce
qui touche à la reconnaissance faciale via les caméras de surveillance, elles
possèdent aussi de gros défauts qui peuvent avoir des conséquences terribles. On
s’est rendu compte que ces IA étaient très biaisées et pouvaient être extrêmement
discriminatoires ce qui n’est pas sans danger quand il s’agit de la sécurité des
individus et de la justice. De par leur fonctionnement, elles sont susceptibles de
reproduire et aggraver les stigmatisations et discriminations existantes dans la
société. Des experts, comme le magistrat français Yannick Meneceur, alertent sur
les dérives de la justice et de la police prédictives, en rappelant que le
raisonnement judiciaire est principalement une affaire d’interprétation
(Meneceur, 2020). Ce dernier insiste sur le fait que le jugement d’un individu
devrait se baser sur ses actions et comportements propres, plutôt que sur des
statistiques et probabilités issues de cas historiques ou d’individus aux
caractéristiques similaires. Finalement ces outils ont été progressivement
abandonnés par la police et la justice, mais il faut rester en alerte sur les dangers
de l’analyse prédictive lorsqu’il s’agit de prendre des décisions de justice ou de
sécurité.
En dépit de ces réserves, il est indéniable que l’IA peut offrir des avantages
considérables. Pour preuve, un système déployé par JPMorgan a su accomplir en
quelques secondes des tâches qui auraient demandé 360 000 heures de travail
humain aux avocats du cabinet (Son, 2017). Toutefois, son intégration dans des
domaines aussi délicats que la justice ou la sécurité nécessite prudence et
discernement.
Le secteur de la culture et de l’art
L’art et la culture, à première vue, ne semblaient pas destinés à être bouleversés
par l’automatisation et la révolution de l’IA. La créativité est en effet souvent
perçue comme une vertu intrinsèquement humaine. Cependant, avec l’essor du
deep learning, nous avons progressivement créé des machines capables de
produire des œuvres d’art inédites.
Dans le domaine de la peinture, il existe des modèles comme StyleGAN par
exemple qui, après s’être entraînés sur des millions de tableaux existants,
peuvent générer des œuvres totalement inédites. Si l’on fournit à une IA une
quantité importante d’œuvres du peintre Van Gogh par exemple, elle peut ensuite
produire un tableau complétement unique, tout en respectant le style distinctif de
l’artiste. À noter que dès 2018, une œuvre créée entièrement par une intelligence
artificielle qui s’appuyait sur ce type d’algorithme a trouvé preneur pour plus de
400 000 dollars lors d’une vente aux enchères chez Christie’s (Six, 2018).
Les IA peuvent aussi écrire des livres ou encore composer de la musique. Le
professeur de musicologie, David Cope, a par exemple développé une IA
capable de reproduire fidèlement le style de Jean-Sébastien Bach (Adams, 2010).
Lors d’un test organisé à l’université d’Oregon, David Cope a soumis trois
morceaux à un auditoire : deux originaux de Bach et un composé par son IA. Il a
ensuite demandé à l’audience de déterminer lequel avait été créé par l’IA. La
majorité d’entre eux s’est trompée. Au cours de ces expériences il était
intéressant de constater que lorsque les participants savaient qu’un morceau était
l’œuvre d’une IA, ils le qualifiaient de « trop précis », « froid » et « dénué
d’âme ». Cependant, lorsqu’ils ignoraient la provenance artificielle du morceau,
ils étaient très enthousiastes, trouvant le morceau expressif et profondément
émouvant. L’intelligence artificielle peut ainsi réaliser des performances très
impressionnantes dans la génération de musique. Un autre exemple assez connu
est celui de Sony qui, après avoir formé une IA sur la discographie intégrale des
Beatles, a produit un morceau original dans le style du célèbre groupe14. De plus,
avec des outils comme Jukebox d’OpenAI par exemple, des morceaux
entièrement composés par des machines peuvent voir le jour.
Une fois que l’on a généré de la musique avec des IA, on peut également
utiliser une autre IA pour nous aider dans la conception de la pochette d’album.
En analysant des milliers de pochettes, des algorithmes de deep learning sont
capables de créer des designs inédits en adéquation avec différents styles
musicaux. Dans cette veine, Netflix a exploité des IA pour concevoir des
affiches de films, et même des scénarios complets.
Une autre application insolite de la génération d’images créatives est incarnée
par Google DeepDream. Avez-vous déjà aperçu ces images singulières que cette
IA produit ?15 Google les décrit comme étant le « rêve » d’une intelligence
artificielle. Mais une IA peut-elle vraiment rêver comme le fait un être humain ?
Pas exactement. En fait, DeepDream utilise des algorithmes qui, après avoir été
formés sur un grand nombre d’images, tentent d’identifier et d’interpréter des
objets et des motifs dans une image donnée. Un peu à la façon dont nous
regardons les nuages dans le ciel pour y deviner des formes. Nous essayons de
percevoir des choses que nous connaissons et qui ressemblent vaguement aux
formes des nuages face à nous. De la même façon, l’IA va tenter de recréer une
perception de l’image selon ce qu’elle connaît. Selon les données sur lesquelles
l’IA a pu s’entraîner, elle verra des choses différentes dans les images, de la
même façon que lorsque que nous rêvons, nos rêves vont grandement varier
selon ce que l’on a vécu dans notre vie ou dans notre journée.
Dans le secteur de la danse également, des chorégraphies sont maintenant
créées à l’aide d’intelligences artificielles, qui proposent des mouvements et
performances inédits. Au sein des musées, l’IA joue également un rôle de plus
en plus central. Le Museums + AI Network16, initié par l’Université Goldsmiths
de Londres et l’Institut Pratt de New York, vise à développer un cadre
éthiquement robuste, et à aider ainsi les musées à explorer les possibilités
offertes par l’IA dans le secteur du patrimoine culturel. De nombreuses
applications sont envisageables. L’IA permet par exemple de traduire et sous-
titrer en temps réel les guides audio, ce qui favorise ainsi une meilleure
accessibilité aux visiteurs internationaux. L’expérience au musée est également
améliorée par l’art interactif généré par des intelligences artificielles. Dans
certaines expositions, les visiteurs peuvent interagir avec des œuvres d’art
générées ou modifiées par l’IA en temps réel, via une expérience immersive et
personnalisée. On trouve aussi le développement d’assistants virtuels qui
peuvent guider et informer les visiteurs selon leurs préférences. Ces assistants
vont répondre à des questions spécifiques, diriger les visiteurs vers des œuvres
qui correspondent à leurs intérêts ou même raconter des anecdotes sur une œuvre
ou un artiste donné. Les IA peuvent également offrir des recommandations
culturelles personnalisées. En analysant les préférences et les comportements des
visiteurs, les musées peuvent suggérer d’autres œuvres, expositions ou
événements qui pourraient les intéresser, créant ainsi un parcours de visite sur
mesure.
Nous le voyons, l’intelligence artificielle touche même des secteurs créatifs
comme celui de l’art et de la culture. Elle ne remplace pas complétement les
artistes mais peut les accompagner efficacement dans leurs créations, et
améliorer l’expérience artistique des spectateurs et amateurs d’art. C’est ce que
font déjà un bon nombre de musiciens qui utilisent des technologies et des IA qui
peuvent par exemple proposer des sons ou des rythmes appropriés pour les
accompagner dans leur processus créatif.

4. LE PROBLÈME DU MANQUE D’INTERPRÉTABILITÉ


Le deep learning a ainsi révolutionné de nombreux secteurs grâce à la
sophistication de ses algorithmes. Ces avancées rendent possible l’éxecution des
tâches toujours plus complexes, ouvrant la voie à des applications innovantes.
Mais le deep learning, de par sa nature, souffre d’un défaut structurel majeur : le
manque d’interprétabilité. La logique interne des réseaux de neurones reste
opaque et ardue à expliciter. Les experts en intelligence artificielle désignent ce
phénomène sous le terme de « boîte noire » ou black box en anglais.

4.1. De véritables boîtes noires


Nous l’avons vu, la puissance du deep learning provient en grande partie de la
profondeur et de la complexité de ses réseaux neuronaux. Cependant, cette
complexité a un prix. Ces réseaux, dotés de nombreuses couches et d’une
multitude de paramètres, sont d’une complexité telle qu’ils en deviennent
difficilement compréhensibles. Cette configuration rend particulièrement ardue
la compréhension du processus décisionnel de l’algorithme et des raisons pour
lesquelles il arrive à un résultat précis. Même si la structure mathématique de la
prise de décision est connue, il y a souvent trop d’informations à démêler pour
obtenir une compréhension claire des résultats. Cette opacité est souvent décrite
comme étant « un effet boîte noire des IA ». Vous noterez que le terme « boîte
noire » utilisé ici est en parfaite opposition avec l’utilisation commune que nous
connaissons dans le domaine de l’aviation. Dans ce contexte, une boîte noire
désigne un enregistreur de vol qui permet d’accéder facilement aux informations
qu’il contient en cas d’incident, offrant ainsi une transparence sur les
événements. À l’inverse, dans le domaine du deep learning, la « boîte noire »
symbolise une opacité presque totale sur le mécanisme qui relie une sollicitation
à la réponse du réseau.
De façon générale, plus on pousse l’abstraction et la complexité, plus on perd
en compréhension et en interprétabilité. Et malgré les avancées majeures de
l’intelligence artificielle grâce à cette complexification des algorithmes, la
question de la boîte noire et de la difficulté d’interprétation du deep learning est
préoccupante. En effet, la confiance que l’on accorde à un algorithme repose
forcément sur sa capacité à expliquer ses décisions. Lorsqu’un réseau de
neurones profond commet une erreur, déterminer les raisons de cette erreur
devient néanmoins un casse-tête. Il est très compliqué de déceler si le
raisonnement de l’algorithme a été faussé ou non. Sans garanties ni explications
complètes, la confiance est mise à mal. Cette transparence est d’ailleurs
particulièrement cruciale dans des domaines comme la médecine, la justice ou
l’armée. Comme le résume si bien Francis Bach, chercheur à l’École normale
supérieure, alors que déterminer si une image est celle d’un chat ou d’un chien
n’a pas besoin d’être totalement explicable, un médecin préférera toujours
utiliser une technique qu’il peut comprendre et expliquer17. Pour faire confiance
à ces systèmes, il est impératif qu’ils puissent rendre compte de leurs décisions,
ce qui est aujourd’hui un défi avec les méthodes de deep learning actuelles.
On cherche donc actuellement à rendre ces algorithmes plus explicables, une
mission qui a été mise en avant par l’Office parlementaire d’évaluation des choix
scientifiques et technologiques18. Cette question est devenue si préoccupante que
des agences comme celle du Pentagone, la DARPA (Defense Advanced
Research Projects Agency), ont lancé des programmes dédiés à résoudre ce
challenge, comme le programme Explainable Artificial Intelligence19.

4.2. Les boîtes blanches et le reverse engineering


Les algorithmes de deep learning sont ainsi de véritables boîtes noires, très
difficiles à comprendre et interpréter. À ce sujet, un rapport de 2017 du Sénat
français sur l’intelligence artificielle soulignait déjà la nécessité de développer
de l’Explainable AI (XAI), à savoir travailler sur des architectures d’intelligence
artificielle qui soient beaucoup plus interprétables. Ce rapport indique que
l’adoption de l’IA dans des secteurs sensibles comme la santé ou la justice exige
une transparence renforcée (De Ganay & Gillot, 2017). Sans cela, la confiance
dans ces systèmes s’affaiblirait, ce qui pourrait entraver leur adoption et leur
efficacité. Imaginez un système d’IA qui recommande un traitement spécifique
pour un patient atteint d’un cancer rare. Si le médecin ne peut pas comprendre
pourquoi l’IA a fait cette recommandation, il pourrait être réticent à suivre ce
conseil. De plus, sur le plan réglementaire, des directives comme le règlement
général sur la protection des données (RGPD) de l’UE stipulent que les individus
ont le droit à une explication sur les décisions automatisées. Cela renforce la
nécessité d’avoir des algorithmes transparents et compréhensibles, en particulier
lorsqu’ils ont un impact direct sur les individus. Il est nécessaire de développer
des IA qui non seulement fonctionnent, mais dont les décisions peuvent aussi
être comprises et justifiées.
Face à ce défi, des ingénieurs ont exploré plusieurs solutions. La première est
l’élaboration d’algorithmes dits de type « boîte blanche » ou white box en
anglais, pour lesquels l’explicabilité est intrinsèque à leur conception. Cela
signifie que dès la création de l’algorithme, l’importance de son interprétabilité
est intégrée. Il existe alors des designs d’algorithmes de deep learning, qui ont
été conçus afin de produire des représentations plus explicites. Cela peut, par
exemple, impliquer la conception de certaines couches du réseau de neurones de
sorte qu’elles soient plus aisément interprétables. Cet ajustement permet de
fournir des explications intermédiaires sur la prise de décision, ce qui simplifie
alors l’interprétation. Néanmoins, malgré ces méthodes, la complexité inhérente
aux algorithmes de deep learning fait qu’ils ne sont jamais totalement
explicables.
La seconde approche est la mise au point d’algorithmes dédiés à la
compréhension des IA basées sur du deep learning. Ces algorithmes
d’explicabilité sont appliqués pour décortiquer et comprendre les algorithmes
utilisés. Étant donné la profondeur et la complexité des réseaux de neurones et la
multitude d’informations à considérer, il peut être tout à fait bénéfique de
s’appuyer sur des outils conçus spécifiquement pour les interpréter. En clair,
l’idée c’est d’utiliser des IA dédiées pour comprendre nos IA trop complexes. Il
existe des algorithmes comme l’algorithme LIME ou DALEX par exemple, qui
permettent de mettre en lumière comment les IA basées sur du deep learning ont
pris telle ou telle décision. Concrètement comment cela fonctionne-t-il ? Une
façon d’y arriver consiste par exemple à modifier légèrement les données
d’entrée (inputs) pour voir ce que cela induit comme différences dans le modèle.
On va ainsi se focaliser sur des aspects particuliers des inputs pour comprendre
comment des petites variations peuvent modifier l’ajustement du modèle dans
son ensemble. Prenons l’exemple d’une IA spécialisée dans la reconnaissance
d’image qui détermine qu’une photo proposée en input représente une voiture.
On va modifier légèrement l’image en entrée pour essayer de comprendre ce qui
a conduit l’IA à affirmer qu’il s’agissait bien d’une voiture. Si l’on transforme
par exemple les roues rondes de la voiture en carrés, on pourra observer une
baisse significative de la probabilité attribuée à la prédiction « voiture », ce qui
montre que les roues sont bien importantes dans l’identification d’une voiture
par l’IA. Cette approche permet de fournir des explications locales à notre
modèle de deep learning. Naturellement, d’autres approches d’explicabilité sont
à l’étude et en cours de développement. La démarche utilisée est souvent celle
du reverse engineering. L’idée est d’utiliser un algorithme qui va permettre de
« détricoter » ce qui a été fait avec l’IA de deep learning et tenter de mieux
comprendre et interpréter son fonctionnement.
Cependant, malgré ces avancées, une complète interprétabilité et
compréhension des algorithmes de deep learning restent aujourd’hui hors de
portée. En pratique, on essaye plutôt de trouver un trade-off optimal entre
performance et explicabilité. En général, plus la performance est grande, plus
l’explicabilité est faible et inversement (Dam et al., 2018). Si le deep learning
offre des performances impressionnantes, pour certaines tâches où l’explicabilité
est primordiale, on devrait avoir tendance à privilégier d’autres modèles de
machine learning moins sophistiqués, tels que les modèles bayésiens ou les
arbres de décision par exemple, qui offrent une interprétabilité supérieure (voir
Figure 20).
Figure 20. Performance vs explicabilité dans les algorithmes de machine learning
Source : autrice
Ainsi, lorsque l’on souhaite développer des intelligences artificielles pour
effectuer des tâches données, il est essentiel de considérer cet enjeu de
l’exploitabilité dans ses choix d’algorithmes. Si le deep learning est intéressant
pour ses performances, l’utiliser dans certains contextes peut être dangereux
puisqu’il nous conduirait à prendre des décisions sans aucune visibilité sur les
causes de ses recommandations. C’est un enjeu éthique important à considérer
dans le développement des intelligences artificielles.

1. https://twitter.com/jason_mayes/status/1296599149748551680 ; https://9gag.com/gag/a5EXj5N
2. https://www.courrierinternational.com/grand-format/voila-ce-quil-se-passe-en-une-minute-sur-internet
3. https://www.nouvelobs.com/societe/20140909.OBS8612/un-manteau-gps-pour-pister-ses-enfants.html
4. Pexels.com (poignet), https://www.flickr.com/photos/160866001@N07/32586534637, CC BY 2.0 <
https://creativecommons.org/licenses/by/2.0/fr/ (doigts), Marco Verch via ccnull.de, CC BY 2.0
<https://creativecommons.org/licenses/by/2.0/fr/deed.fr> (tête/yeux), Nicolas Sadoc, CC BY-SA 4.0
<https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons (oreille), picryl.com (jambe),
François GOGLINS, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia
Commons (cheville).
5. https://www.lesechos.fr/2018/01/facebook-recrute-un-francais-a-la-tete-de-sa-division-intelligence-
artificielle-982654
6. https://www.nytimes.com/1997/07/29/science/to-test-a-powerful-computer-play-an-ancient-game.html?
emc=eta1
7. https://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html
8. https://www.sciencesetavenir.fr/sante/e-sante/google-arrete-de-prevoir-mal-les-epidemies-de-
grippe_18748
9. https://www.wired.co.uk/article/ibm-watson-medical-
doctor#:~:text=Watson%E2%80%99s%20ability%20to%20absorb%20this,50%20percent%20for%20human%20doctors
10. https://sciencepost.fr/des-avions-plus-ecologiques-grace-a-lintelligence-artificielle/
11. https://www.sciencesetavenir.fr/nature-environnement/mers-et-oceans/rolls-royce-veut-developper-des-
navires-pilotes-a-distance-puis-entierement-autonomes_117497
12. https://www2.deloitte.com/ch/en/pages/forensics/articles/AI-and-machine-learning-in-E-discovery.html
13. https://bigbrotherwatch.org.uk/wp-content/uploads/2020/02/Big-Brother-Watch-Briefing-on-
Algorithmic-Decision-Making-in-the-Criminal-Justice-System-February-2020.pdf
14. https://www.youtube.com/watch?v=LSHZ_b05W7o
15. https://www.nouvelobs.com/rue89/rue89-internet/20160114.RUE1908/comment-google-a-fait-de-ses-
ordinateurs-des-peintres-sous-lsd.html
16. https://themuseumsai.network/
17. https://www.lesechos.fr/2017/05/le-talon-dachille-de-lintelligence-artificielle-168099
18. https://www.lesechos.fr/2017/03/intelligence-artificielle-les-parlementaires-denoncent-un-manque-de-
lucidite-163662
19. https://www.darpa.mil/program/explainable-artificial-intelligence
CHAPITRE 3. UNE COURSE À L’IA VERS UN
OUBLI DE LA MORALE ?
Étant donné le potentiel promis par l’intelligence artificielle notamment avec le
développement du deep learning, nous assistons depuis ces dernières années à
une course frénétique de la part des entreprises vers le développement de ces
technologies. Et dans cette course, les géants de la tech, tels que Google,
Microsoft ou Meta, se positionnent en tête de file. Ces derniers visent le
développement d’intelligences artificielles qui se voudraient plus générales, sujet
que nous aborderons plus en détail dans ce chapitre. Cette course vers l’IA
générale a donné lieu à des innovations impressionnantes et des applications très
utiles, mais à quel prix ? Nous verrons en effet dans les pages suivantes en quoi
cette course effrénée à l’IA peut potentiellement être problématique, puisqu’elle
semble conduire les entreprises à fréquemment négliger les enjeux éthiques
sous-jacents. De plus, cette volonté de développer des IA toujours plus
performantes, entraînées sur des jeux de données conséquents, mène également à
la construction précipitée d’algorithmes qui peuvent se révéler dangereux. Nous
évoquerons, par exemple, l’existence d’IA qui présentent des biais racistes et
sexistes, le développement d’algorithmes fondamentalement biaisés, ou encore
les risques liés au non-respect de la vie privée.

1. EN ROUTE VERS UNE IA GÉNÉRALE ?

1.1. L’IA générale et la superintelligence


Lorsque l’on parle d’intelligence artificielle, on entend parfois le terme d’IA
générale, qui se distingue des IA plus spécialisées, souvent qualifiées
d’« étroites ». L’IA générale, également appelée AGI (pour Artificial General
Intelligence en anglais), représente un objectif particulièrement ambitieux. Elle
incarne l’idée d’une machine composée d’un seul algorithme capable d’exécuter
une large variété de tâches, à l’instar des capacités cognitives humaines.
Contrairement aux IA étroites, qui sont conçues et entraînées pour exceller dans
une tâche spécifique, l’IA générale aspirerait à utiliser un unique modèle capable
de s’adapter et d’apprendre pour accomplir diverses tâches, sans être
explicitement programmé pour chacune d’entre elles.
Bien que ce type d’IA représente un objectif pour les chercheurs, il ne s’est pas
encore pleinement concrétisé à ce jour, en raison de défis considérables, tant sur
le plan technique que sur le plan éthique. Malgré ces obstacles, des entreprises
de premier plan continuent d’investir massivement dans ce domaine. Google,
Meta et d’autres acteurs clés de l’industrie, par exemple, sont des piliers de cette
avancée. Ils conduisent des recherches intensives, bénéficient de financements
significatifs et établissent des partenariats avec des institutions académiques
dans l’optique de développer cette fameuse IA générale.
Parmi les projets marquants, on peut citer Gato de Google DeepMind ainsi que
Pathways, également développé par Google, qui figurent parmi les initiatives les
plus proches de l’IA générale à ce jour. Gato est un réseau neuronal profond
multimodal1. Il est capable de réaliser une vaste gamme de tâches complexes :
dialoguer, jouer à des jeux vidéo, contrôler un bras robotique pour empiler des
blocs, légender des images, écrire des compositions musicales et plus encore. Ce
système est conçu pour apprendre différentes tâches simultanément, ce qui lui
permet de passer de l’une à l’autre sans perdre les compétences précédemment
acquises. Il peut également transposer la connaissance acquise d’une tâche à une
autre, en exploitant ainsi un mécanisme de transfert d’apprentissage pour
améliorer sa performance et son efficacité dans de nouvelles situations : c’est le
principe du transfer learning. Toutefois, bien que Gato excelle dans certaines
tâches, comme celle de contrôler un bras robotique par exemple, il présente des
lacunes dans d’autres, telles que la génération de légendes d’images de qualité
ou la conversation cohérente avec des humains. Les créateurs de Gato voient ces
imperfections comme une étape temporaire vers la réalisation d’une intelligence
artificielle plus générale et anticipent que des augmentations futures de la
puissance de calcul permettront d’améliorer ces aspects (Heikkilä, 2022).
Pathways, un autre projet de Google, est une architecture révolutionnaire conçue
elle aussi pour former un unique modèle capable d’accomplir des milliers, voire
des millions de tâches différentes, sans repartir de zéro à chaque nouvelle tâche2.
Google décrit Pathways comme étant comparable au cerveau des mammifères
dans sa capacité à gérer un éventail de tâches, du plus simple au plus complexe.
Pathways est conçu comme un modèle multimodal, ce qui signifie que son
algorithme est capable de traiter simultanément des informations visuelles et
auditives par exemple3. Concrètement, le système serait capable d’identifier un
léopard en voyant une vidéo de l’animal en action, mais aussi en entendant son
rugissement, en lisant le mot « léopard » ou en entendant quelqu’un dire
« léopard ». Ces projets, malgré leurs limites actuelles, témoignent des efforts
significatifs et des progrès notables vers le développement d’intelligences
artificielles générales.
Cette notion d’IA générale est cependant fréquemment confondue avec un
autre concept : celui d’IA forte, ou strong AI en anglais. Nous l’avons vu, l’IA
générale désigne une intelligence artificielle capable de résoudre une multitude
de tâches différentes et d’appliquer des connaissances dans différents domaines,
à l’instar de l’intelligence humaine. L’IA forte, quant à elle, va bien plus loin. Il
s’agit d’une forme d’intelligence artificielle complétement fictive qui, non
seulement égalerait l’intelligence humaine, mais posséderait également une
conscience de soi. Autrement dit, une IA forte serait non seulement capable de
réaliser une diversité de tâches de manière autonome et d’apprendre de nouvelles
compétences, comme le ferait une IA générale, mais elle aurait aussi une
compréhension subjective de ses propres états, tout comme un être humain. Elle
serait tellement intelligente qu’elle développerait une forme d’esprit et de
conscience de soi. C’est cette possibilité d’une conscience autoréflexive chez
l’IA qui suscite souvent de vives inquiétudes et alimente l’imaginaire collectif,
car cela pourrait aboutir à l’émergence de comportements ou de capacités
imprévus.
Un autre concept fréquemment associé à cette notion d’IA forte et qui a fait
couler beaucoup d’encre, est le concept de « superintelligence »4. Ce terme a été
largement popularisé par le livre Superintelligence de Nick Bostrom publié pour
la première fois en 2014, au Royaume-Uni. Dans cet ouvrage, alors visionnaire,
Bostrom explore les menaces posées par l’émergence d’une superintelligence.
Selon lui, étant donné les progrès impressionnants en intelligence artificielle ces
dernières années, il n’y a aucune raison de penser que le développement d’une
superintelligence soit impossible. Bostrom définit la superintelligence comme
étant « tout intellect qui excède largement les performances cognitives des êtres
humains dans tous les domaines possibles » (Bostrom, 2017, p. 41). Cette
définition englobe des capacités aujourd’hui spécifiquement attribuées aux
humains, telles que l’empathie, la créativité, le bon sens, les compétences
sociales, etc. Il ne mentionne pas explicitement la notion de conscience, comme
c’est le cas avec le concept d’IA forte, mais on n’en est pas loin. Dans son livre,
Bostrom imagine divers scénarios qui conduiraient au développement d’une IA
super intelligente, qui finirait par se retourner contre ses créateurs, un peu à
l’image des scénarios catastrophes décrits dans les pires dystopies. Cependant,
ici ce n’est pas un auteur de science-fiction qui parle mais un scientifique, qui
propose des scénarios basés sur des hypothèses et raisonnements élaborés. Il
explique qu’une IA qui parviendrait au stade de superintelligence aurait un
pouvoir immense.
Ainsi, de nombreux concepts ont été progressivement introduits dans les
discussions scientifiques et médiatiques pour désigner différents niveaux de
capacités envisageables des intelligences artificielles. Dans l’ordre croissant de
ces capacités, nous avons d’abord l’IA faible ou IA étroite. Il s’agit des IA que
nous connaissons et utilisons actuellement, où chaque algorithme est dédié à un
usage précis. Par exemple, l’IA qui me recommande des films sur Netflix n’est
pas la même que celle me permettant de converser avec Alexa. Ensuite, vient la
notion d’AGI ou intelligence artificielle générale, sur laquelle des entreprises
comme Google ou Meta travaillent ardemment. L’objectif de l’AGI est de
concevoir un unique modèle capable d’exécuter une grande variété de tâches.
Ainsi, ce serait le même algorithme qui permettrait à la fois d’obtenir des
recommandations de films, de reconnaître des images et de converser avec un
assistant vocal. Puis vient ensuite la notion de superintelligence décrite par Nick
Bostrom, dans laquelle une IA surpasserait largement les capacités humaines,
serait totalement autonome et capable d’exercer une volonté propre. Enfin, au
sommet de cette hiérarchie, se situe l’IA forte, considérée comme le niveau
ultime d’une intelligence artificielle, douée de conscience (voir Figure 21).
Figure 21. Types d’IA selon l’ordre croissant des capacités

Source : autrice

Concrètement, les intelligences artificielles que nous connaissons et utilisons


aujourd’hui sont qualifiées d’IA étroites. Pour ces systèmes, des algorithmes
spécifiques ont été élaborés afin de réaliser des tâches bien définies.
Actuellement, la majorité de la recherche en IA se concentre sur ces systèmes.
Toutefois, quelques chercheurs et entreprises s’intéressent à l’IA générale et
aspirent à développer un algorithme unique, capable d’exécuter une multitude de
tâches différentes. Comme nous l’avons vu, ce concept n’est pas encore
pleinement réalisé dans la pratique. En ce qui concerne la superintelligence et
l’IA forte, ces termes désignent des concepts purement fictifs et théoriques, qui
permettent de se questionner quant à l’avenir de l’IA, mais qui ont aussi nourri
beaucoup de craintes et fantasmes à son sujet.

1.2. La crainte médiatisée d’une IA forte


Le développement des capacités des algorithmes a favorisé l’émergence de
craintes de plus en plus présentes de voir les intelligences artificielles atteindre
une forme de superintelligence qui dépasserait l’homme en tout point et
deviendrait une menace pour l’humanité. C’est la thèse que décrit Nick Bostrom
dans son livre Superintelligence. Voici un extrait de la version française de son
ouvrage : « Avant que ne survienne une explosion d’intelligence, nous autres
humains sommes comme des petits enfants qui jouent avec une bombe. Il y a un
décalage entre le pouvoir de notre jouet et l’immaturité de notre conduite. »
(Bostrom, 2017) Selon Bostrom, nous élaborons des IA de plus en plus
performantes, qui pourraient un jour échapper à notre contrôle si nous ne
prenons pas toutes les précautions nécessaires. Ce livre a fait pas mal de bruit à
l’époque de sa publication et a été chaudement recommandé dans les médias par
de nombreuses personnalités influentes telles qu’Elon Musk ou Bill Gates. Ils
sont d’ailleurs aujourd’hui cités sur la quatrième de couverture du livre de Nick
Bostrom pour leurs vives recommandations.
Ces milliardaires et dirigeants de grandes entreprises, bien connus du grand
public, ont largement contribué à la diffusion d’une certaine inquiétude quant à
l’émergence d’une superintelligence. En 2014, Elon Musk décrivait l’IA comme
étant « notre plus grande menace »5 (Gibbs, 2014). Pourtant, de façon assez
ironique, aujourd’hui l’IA représente un des plus importants avantages
concurrentiels de ses entreprises, que cela soit pour son entreprise automobile
Tesla ou encore pour sa nouvelle société Neuralink, qui développe des interfaces
cerveau-machine, avec l’ambition de créer une symbiose entre l’IA et les
fonctions cognitives humaines via l’implantation de puces électroniques
directement dans le cerveau. Ce décalage entre les paroles et les actions de Musk
fait penser à un scénario classique de pompier pyromane, dans lequel celui qui
avertit du danger est aussi celui qui est responsable de sa propagation. Bill
Gates, le fondateur de Microsoft, se disait lui aussi très inquiet par cette
perspective d’atteindre une IA super intelligente6. Le scientifique Stephen
Hawking, l’un des physiciens les plus renommés de notre époque, a également
formulé des critiques sévères à l’égard de l’IA, allant jusqu’à craindre le pire
pour l’humanité. Il a décrit l’intelligence artificielle comme étant le « pire
événement de l’histoire de notre civilisation »7, en évoquant un risque
d’extinction de l’espèce humaine (Luckerson, 2014). Là encore l’ironie de la
situation est notable, puisque Stephen Hawking, atteint de paralysie, pouvait
exprimer ses idées uniquement grâce à une interface et un synthétiseur vocal qui
utilisent des technologies d’IA. Sans cette IA, il n’aurait même pas pu
communiquer la crainte qu’il éprouvait à son égard.
Ces réactions ont suscité de nombreux débats et invitent à la réflexion sur les
développements technologiques en cours. Néanmoins, il est essentiel de prendre
un peu de recul sur ces sujets et cela requiert que chacun d’entre nous acquière
une connaissance suffisante de ce qu’est véritablement l’IA, afin d’éviter de
succomber aux fantasmes et à la panique. Est-il réellement concevable, d’un
point de vue rationnel, qu’une IA puisse un jour être dotée de conscience, de bon
sens et de volonté propre ? À ce jour, rien ne permet d’en être certain et
nombreux sont les experts qui suggèrent que ces préoccupations autour de l’IA
forte et de la superintelligence relèvent surtout du sensationnalisme et ne sont
pas fondées sur du concret.

1.3. L’IA pourra-t-elle réellement être super intelligente ?


Lorsqu’il est question d’intelligence artificielle dans les médias, les notions de
superintelligence et d’IA forte, sans nécessairement être nommées, reviennent
fréquemment. Face aux progrès actuels, on se demande légitimement si le
développement de telles superintelligences est envisageable. Toutefois, aborder
le futur est une chose complexe, car il est impossible de prédire avec certitude ce
qu’il adviendra. Ce flou laisse la porte ouverte à toutes sortes de spéculations sur
le sujet. Pour de nombreux intellectuels, comme Gaspard Kœnig notamment,
cette peur relève davantage du fantasme et du mythe, digne des fictions telles
que Frankenstein ou Terminator. Selon lui, il n’y a pas de superintelligence sans
« superorganisme » (Kœnig, 2019). Il souligne notamment l’importance cruciale
du corps, de la chair et des hormones dans nos comportements et pensées.
Comme le met en avant Antonio Damasio dans son livre L’Erreur de Descartes,
nous pensons autant avec notre chair qu’avec notre cerveau (Damasio, 2010).
L’intelligence a besoin d’un corps pour ressentir des sensations et développer un
sens pratique du monde, ce qui est de toute évidence absent dans les
intelligences artificielles telles qu’elles sont développées aujourd’hui.
Dans son livre, Gaspard Kœnig déclare : « Le sens commun, fonction
éminemment liée à notre homéostasie biologique, permet de saisir la
signification du monde qui nous entoure, mélange de concepts et de finalités. Il
échappe par essence à la capacité de calcul de l’IA. Ce faisant, il pose une limite
définitive au champ de la superintelligence comme aux progrès de
l’automatisation. » (Kœnig, 2019, p. 120) Selon ce point de vue, même si une
machine devenait suffisamment performante et polyvalente pour, par exemple,
imiter des sentiments à la perfection, cela ne signifierait en aucun cas qu’elle soit
capable de les ressentir véritablement. L’IA ne comprend ni ne ressent des
émotions ; elle se contente d’imiter ce qu’on lui a appris, et il est naturel que
cette imitation, parfois impressionnante, puisse être déstabilisante pour les
humains.
Je vous propose une expérience de pensée très connue, proposée en 1980 par le
philosophe américain John Searle, qui permet de mieux appréhender ce point de
vue : il s’agit de l’argument de la chambre chinoise, ou Chinese room argument
en anglais (Searle, 1980). Imaginez que vous soyez seul dans une pièce, sans
aucun contact avec l’extérieur. La seule chose que vous avez en votre possession
est un manuel dans lequel se trouve une liste exhaustive de questions en
caractères chinois, associées à une série de réponses en caractères chinois. Vous
ne parlez pas du tout le chinois et n’avez aucune idée de ce que signifient ces
caractères. Mais si quelqu’un vous glisse des caractères chinois sous la porte,
vous pouvez tout de même lui répondre avec des caractères chinois appropriés,
simplement en suivant votre manuel. Ainsi, la personne à l’extérieur pourrait
tout à fait croire qu’elle a affaire à un interlocuteur chinois dans la pièce.
Pourtant, vous n’êtes pas Chinois, et vous ne comprenez rien à ce que vous faites
ni à ce que vous voyez. Vous suivez seulement un manuel, une logique. De la
même manière, l’IA agit en quelque sorte comme un « idiot savant ». Elle suit
des règles, soit qu’on lui aura fixées en amont, soit qu’elle aura déduites à partir
de nombreux exemples, à l’instar de ce que vous venez de faire dans votre
« chambre chinoise ». Mais elle ne comprend pas fondamentalement ce qu’elle
fait. Quand AlphaGo surpasse les humains au jeu de Go, l’IA ne sait pas
vraiment ce qu’elle est en train de faire et ne ressent absolument rien au moment
de la victoire.
Beaucoup de chercheurs et informaticiens pensent ainsi que les capacités
réelles des IA sont largement surestimées et que les discours alarmistes
concernant la superintelligence relèvent davantage de la science-fiction. Des
experts de l’IA tels que Yann LeCun, Jerry Kaplan ou Luc Julia par exemple,
estiment que ces récits autour de la superintelligence souvent évoqués par des
physiciens et philosophes – dont les recherches les amènent à contempler les
grandes questions cosmiques et les futurs hypothétiques de l’humanité – se
trouvent en décalage notable avec la réalité de ce qui est actuellement mis en
œuvre dans le domaine. Même si les IA deviennent de plus en plus complexes et
performantes, elles demeurent, en essence, des outils effectuant des calculs de
probabilités et des analyses statistiques basées sur d’immenses bases de données.
En cela, elles ne possèdent ni intelligence comparable à celle des humains ni bon
sens. La machine ne prend pas d’initiative et elle fait ce pour quoi elle est
programmée.
Luc Julia exprime une vive réaction face à ces prises de position sur une
potentielle superintelligence et redoute que ces peurs conduisent à un troisième
hiver de l’IA. Il se montre d’ailleurs très critique envers les propos d’Elon Musk,
affirmant dans son livre : « La plupart des gens impliqués dans la recherche sur
l’IA sont étonnés par ses propos et se demandent ce qui pousse quelqu’un
d’intelligent, d’informé et d’aussi impliqué que lui dans le monde de la
technologie, à faire des déclarations aussi absurdes. » (Julia, 2019) Ces propos
sont tirés de son ouvrage au titre provocateur, L’intelligence artificielle n’existe
pas. Selon lui, le terme même d’« intelligence artificielle » serait un malentendu,
source de fantasmes. Il trouve absurde l’idée que les IA puissent être réellement
intelligentes et propose l’appellation « intelligence augmentée » plutôt
qu’« intelligence artificielle ». Cette dénomination, à ses yeux, reflète mieux le
rôle véritable des IA : améliorer nos capacités et notre intelligence, sans la
remplacer. Julia insiste sur le fait qu’imaginer une IA devenant super intelligente
est déjà en net décalage avec la réalité de ce qu’est une IA, mais concevoir
qu’une IA puisse vouloir dominer le monde est encore plus farfelu. D’ailleurs,
comme il le dit si bien dans son livre, on peut facilement argumenter que les
individus les plus intelligents ne sont pas nécessairement ceux qui aspirent le
plus au pouvoir – il suffit d’observer la société humaine pour s’en convaincre.
Julia estime que ce désir de domination est plutôt enraciné dans des facteurs
biologiques, tels que le niveau de testostérone et un instinct de survie de l’espèce
inscrit dans nos gènes, plutôt qu’en lien direct avec l’intelligence elle-même. Il
souligne que cette perspective met en évidence l’importance des spécificités
biologiques des êtres humains et des organismes vivants en général, qui sont
cruciales pour distinguer clairement les capacités humaines de celles des
machines.
Pour conclure, de nombreux scénarios ont été évoqués concernant une IA forte
et super intelligente. Toutefois, malgré les résultats de plus en plus
impressionnants qu’elle génère, l’IA demeure profondément différente de notre
fonctionnement. Elle reste, en fin de compte, un programme informatique qui
calcule des probabilités et anticipe le futur en se basant sur les données du passé.
Selon plusieurs experts, les IA actuelles, qui exploitent des techniques
statistiques, ne semblent pas être le chemin vers une superintelligence, et ce,
pour diverses raisons.
Premièrement, un argument fréquemment avancé est que, bien qu’elles
deviennent plus efficaces, les IA sont extrêmement gourmandes en données et en
énergie, ce qui limite leur développement. À titre d’exemple, il est estimé que
l’être humain consomme environ 20 watts d’énergie pour exécuter une multitude
d’actions complexes simultanément, tandis qu’IBM Watson peut requérir jusqu’à
80 000 watts pour effectuer ses prédictions.
Deuxièmement, comme nous l’avons vu précédemment, il apparaît que les
notions de conscience, de volonté propre et d’émotions sont intrinsèquement
liées à des facteurs biologiques et en rapport avec le vivant. Ainsi, pour
envisager la création d’une superintelligence, il serait probablement nécessaire
de combiner diverses disciplines scientifiques, telles que la biologie, la physique
et la chimie. Or, cette approche diffère radicalement des techniques employées
dans le développement des IA actuelles.

1.4. L’IA générale en pratique avec Google Pathways et Gato


Le bon sens, les émotions et la conscience ne semblent donc pas être des
attributs que l’on puisse, à ce jour, associer aux machines dotées d’IA, telles que
nous les concevons actuellement. Ces limitations rendent les concepts d’IA forte
et de superintelligence largement fictifs. Mais qu’en est-il des IA générales et de
la possible multidisciplinarité d’un seul et même algorithme ?
Lors d’un talk TEDx en 2017, Jeff Dean, le directeur de Google AI, avait
annoncé le développement de Google Pathways, qui visait précisément à créer
une IA générale, capable de multidisciplinarité. Pour cela, il envisageait de
réutiliser les modèles individuels existants chez Google et de les étendre pour
former un modèle général unique. Schématiquement, l’idée consistait à
reprendre les algorithmes spécifiques des produits Google, ainsi que les données
sur lesquelles chacune des IA existantes a été entraînée pour effectuer des tâches
précises, puis à chercher à les fusionner en un seul modèle (voir Figure 22). Ce
modèle unifié permettrait ainsi de réaliser des tâches multiples et complexes.
Figure 22. Illustration du passage d’IA étroites à une IA générale chez Google

Source : autrice

Cependant, cette annonce avait suscité une certaine polémique à l’époque,


notamment en ce qui concerne la question des données qui seraient utilisées pour
entraîner ce modèle général. Voici un exemple des problèmes que l’on pourrait
craindre. Chez Google, il y a un algorithme dédié qui s’entraîne sur vos e-mails
pour proposer, par exemple, de l’autocomplétion lorsque vous rédigez un
message. En se basant sur le contenu de vos messages, votre agenda et votre
carnet de contacts, cet algorithme propose d’achever automatiquement vos
phrases au fur et à mesure de votre rédaction. Plus l’IA aura analysé des e-mails,
plus cette autocomplétion sera pertinente et précise. Lorsque vous effectuez une
recherche sur Google Search, c’est une autre IA qui entre en jeu, formée
spécifiquement pour cette tâche à partir d’autres jeux de données plus adaptés.
En fonction des clics précédents, des recherches les plus fréquentes effectuées
sur Google, ou de votre propre historique de recherche, cette IA vous propose
également de l’autocomplétion pendant que vous tapez votre requête.
Mais imaginez que l’on fusionne ces deux IA : celle développée pour
l’autocomplétion des e-mails et celle destinée à l’autocomplétion des requêtes
sur Google Search. Ces deux systèmes ont été entraînés sur des jeux de données
différents et sont donc conçus pour fournir des résultats différents. Dans ce
scénario, si je cherche mon nom dans Google, je ne recevrais pas seulement des
suggestions d’autocomplétion basées sur les recherches fréquentes. Je pourrais
également obtenir des suggestions provenant des e-mails analysés dans lesquels
mon nom est mentionné. Ce croisement des données peut poser un problème
sérieux en termes de respect de la vie privée (Carlini et al., 2021). Par exemple,
des informations sensibles ou personnelles contenues dans vos e-mails
pourraient être indirectement exposées via ces suggestions d’autocomplétion à
d’autres utilisateurs qui effectuent des recherches liées à votre nom. Cela
représente non seulement une violation potentielle de votre vie privée, mais cela
peut également ouvrir la voie à des usages malveillants de ces informations, tels
que le harcèlement ou l’usurpation d’identité. Ce n’est visiblement pas encore le
cas aujourd’hui, mais si un modèle d’IA générale venait à être déployé pour ce
type de tâche sans une gestion rigoureuse de ces risques, cela pourrait devenir
très dangereux en termes de respect de la vie privée.
De manière générale, la fusion de modèles entraînés sur des données diverses,
issues de contextes radicalement différents, peut s’avérer problématique. En
effet, les comportements associés ou les schémas identifiés dans un type de
contexte peuvent se révéler non pertinents, voire dangereux, lorsqu’ils sont
appliqués dans un autre contexte. Prenons l’exemple de données issues de parties
du jeu vidéo GTA : dans ce jeu, les joueurs ont tendance à adopter une conduite
de véhicule très agressive, avec des courses-poursuites à haute vitesse et le non-
respect des règles de circulation. Transposer ce comportement à la conduite d’un
véhicule dans le monde réel serait évidemment catastrophique et hautement
dangereux. Ce qui est acceptable et amusant dans le contexte d’un jeu vidéo ne
l’est clairement pas dans le contexte de la vie réelle. Si l’on prend un exemple un
peu plus subtil maintenant, imaginons un modèle d’IA entraîné à partir de
données médicales recueillies dans un hôpital spécialisé dans le traitement des
maladies cardiaques. Ce modèle est très performant pour évaluer les risques
cardiaques sur la base des données de patients qui ont déjà été diagnostiqués
avec des problèmes cardiaques. Si ce modèle est ensuite fusionné avec un autre
modèle, entraîné sur des données provenant d’une clinique de santé mentale,
sans adaptation ni révision appropriées, cela pourrait poser de sérieux problèmes.
Dans un tel scénario, lorsque ce modèle combiné est utilisé pour évaluer les
risques de santé d’un nouveau patient, il pourrait mélanger et confondre les
signaux des données cardiaques et mentales. Par exemple, il pourrait interpréter
à tort une augmentation de la fréquence cardiaque (un signe potentiel de stress
ou d’anxiété, couramment observé dans les données de santé mentale) comme un
indicateur de risque cardiaque élevé, et ainsi recommander des traitements ou
des interventions médicales non nécessaires et potentiellement nocifs pour le
patient.
En plus de Pathways, nous l’avons vu, Google DeepMind a également mis au
point Gato, une IA qui prétend exceller dans plus de 600 tâches grâce à un
modèle unique. Capable de reconnaître des images, de générer du texte et même
de jouer à des jeux, Gato a suscité également un débat animé parmi les experts.
Certains expriment leur scepticisme quant à sa qualification d’intelligence
artificielle générale, en mettant en lumière ses résultats hétérogènes selon les
tâches effectuées. Ils s’interrogent également sur la pertinence de développer de
telles IA générales, qui soulèvent des enjeux éthiques manifestes tout en offrant
des résultats mitigés. Il convient de souligner que, malgré les annonces
retentissantes de Google, le domaine de l’intelligence artificielle générale
demeure un champ de recherche en IA en développement, qui est loin d’être
achevé et qui reste minoritaire dans le paysage global de la recherche en
intelligence artificielle.

2. OPENAI & GPT

2.1. La nécessaire compétition avec OpenAI


Elon Musk, le fondateur de PayPal, Tesla, SpaceX et Neuralink, a exprimé à de
nombreuses reprises ses inquiétudes concernant l’évolution de l’IA et son impact
potentiellement néfaste sur notre avenir. Nous l’avons vu, il redoute notamment
l’émergence d’une superintelligence qui pourrait se révéler dangereuse pour
l’humanité. Plusieurs spécialistes ont critiqué Musk pour ses déclarations
alarmistes et anxiogènes, estimant qu’elles relevaient davantage du fantasme et
de l’imagination que d’une analyse rationnelle. Que cette crainte soit fondée ou
non, elle a néanmoins conduit Musk, à diverses occasions, à encourager le
développement d’IA plus « sûres ». Par exemple, en 2015, Musk a fait don de 10
millions de dollars au Future of Life Institute, afin de soutenir les chercheurs qui
œuvrent à développer des IA plus sûres, plus éthiques et davantage bénéfiques
pour l’humanité8. Même si l’idée que les IA puissent un jour se retourner contre
les humains peut paraître lointaine et fictive, il est indéniable que des progrès
doivent être réalisés pour renforcer l’éthique et la fiabilité des IA que nous
connaissons aujourd’hui.
Par ailleurs, bien que la notion de superintelligence ou d’IA forte demeure, à ce
jour, dans le domaine de l’hypothétique, il est important de souligner que des
chercheurs et, surtout, des entreprises investissent activement dans le
développement d’intelligences artificielles générales. Comme nous venons de le
voir, ces dernières, en dépit de leur potentiel, pourraient engendrer des risques et
poser des problèmes éthiques significatifs. Google est l’une des entreprises les
plus investies dans le domaine de l’IA et semble actuellement être la plus
avancée dans ces travaux relatifs à l’intelligence artificielle générale. Cette
entreprise traite un volume considérable de données, recueillies grâce à une
multitude de produits familiers qui touchent presque tous les aspects de notre
quotidien, tels que Google Search, Gmail, Google Maps, Google Drive,
YouTube, Android, Google Chrome, etc. De plus, Google attire certains des
ingénieurs les plus talentueux et les plus brillants du monde, qui se consacrent au
développement de ces IA. Cette synergie lui confère un avantage concurrentiel
significatif, qui a été essentiel pour le développement de ses algorithmes
d’intelligence artificielle, notamment via son laboratoire Google DeepMind.
Au cœur de ces avancées se trouve Google Brain, une équipe de recherche
fondamentale au sein de l’entreprise. Depuis sa création en 2011, Google Brain a
été à la pointe de l’innovation en IA, développant des techniques d’apprentissage
profond qui ont été largement adoptées dans l’industrie. Cette équipe a
également contribué à des projets tels que TensorFlow, un cadre d’apprentissage
machine open source qui a révolutionné le développement de solutions d’IA. De
plus, Google a annoncé diverses collaborations avec des institutions
académiques et des industries, visant à appliquer ces technologies d’IA dans des
domaines tels que la santé, l’énergie et la science des matériaux. Ce vaste réseau
de partenariats montre son engagement à diriger et à façonner l’avenir de l’IA
générale, consolidant ainsi sa position dominante sur ces sujets.
Pour contrer un potentiel état de monopole, Elon Musk, en collaboration avec
l’homme d’affaires Sam Altman, a fondé OpenAI en 2015. Ensemble, ils ont
investi près de 1 milliard de dollars dans ce projet, avec l’objectif déclaré de
développer une intelligence artificielle générale (AGI) sûre, qui profite à toute
l’humanité, et non pas uniquement à quelques grandes entreprises. Cette
mission, telle qu’elle est définie, est clairement énoncée sur leur site internet :
« Creating safe AGI that benefits all of humanity9. »
Cependant, il convient de souligner que OpenAI a subi des changements
significatifs depuis sa création. Initialement constituée en tant qu’association à
but non lucratif dédiée à l’intérêt général, elle s’est transformée en entreprise
privée en 2019 (Demichelis, 2019). Ce changement majeur a été accompagné
par l’établissement d’une collaboration étroite avec l’entreprise Microsoft. En
effet, OpenAI fournit à Microsoft de nombreux résultats et algorithmes, faisant
ainsi de ce géant technologique un partenaire privilégié. Cette mutation constitue
une étape cruciale dans l’évolution de l’organisation et suggère un certain
éloignement de ses ambitions altruistes d’origine au profit d’intérêts peut-être
davantage guidés par les potentiels financiers de ces technologies.
Ainsi, aujourd’hui, des acteurs tels que Google et OpenAI se livrent à une
compétition acharnée, engagés dans une course effrénée vers le développement
d’une IA générale. Pour atteindre cet objectif, Google, tout comme OpenAI, ont
consacré d’importantes ressources au traitement du langage naturel, un domaine
qui s’avère particulièrement prometteur…

2.2. Le cas particulier du langage naturel


Pour illustrer les avancées spectaculaires de l’intelligence artificielle au cours
de la dernière décennie, la reconnaissance d’image est fréquemment citée en
exemple. Cette technologie n’a cessé de progresser : aujourd’hui, les IA sont
capables de reconnaître des objets sur une photo, d’identifier des individus dans
des vidéos, et même de détecter des émotions. Bien que ces applications soient
déjà impressionnantes, un autre domaine de l’IA semble se révéler encore plus
prometteur : le traitement du langage.
En effet, dans la quête vers la construction d’une éventuelle IA générale, il est
apparu que les modèles de traitement du langage pourraient jouer un rôle crucial.
Mais pourquoi cette focalisation sur le traitement du langage plutôt qu’une autre
sous-discipline de l’IA ? Qu’est-ce que le langage a de si particulier ? Ce qui
fascine dans le langage, c’est la complexité qu’il recèle. Maîtriser une langue,
c’est dominer un niveau de complexité et d’abstraction considérable et être
capable d’intégrer la sémantique qui lui est associée. Cette maîtrise exige une
connaissance approfondie de la grammaire, de la syntaxe, du sens des mots, ainsi
que du contexte général dans lequel une phrase ou un mot est employé. En effet,
la signification d’un mot peut varier considérablement selon son contexte, ce qui
engendre des ambiguïtés potentielles dans le langage. Un exemple flagrant de
cette ambiguïté se trouve dans les homonymes, ces mots qui possèdent plusieurs
sens distincts. Prenons le mot « orange » en français : selon le contexte et la
phrase dans laquelle il est utilisé, il peut désigner un fruit, une couleur, ou même
une ville. Et ces ambiguïtés, manifestes à l’échelle d’un mot, se trouvent
potentiellement amplifiées lorsque l’on considère des phrases ou des textes
entiers. Ainsi, une même phrase peut ne pas avoir le même sens d’un paragraphe
à un autre. Prenons l’exemple du message : « Super nouvelle ! » Selon le
contexte, ce message peut être interprété différemment. L’emploi de l’ironie, par
exemple, peut complètement inverser le sens. Nous constatons d’ailleurs, dans
notre vie quotidienne, que le langage, qu’il soit verbal ou écrit, peut parfois
engendrer des incompréhensions, des maladresses ou même des contresens. Il
nous arrive d’être contraints de « lire entre les lignes » pour saisir le véritable
sens d’un propos. Communiquer des idées n’est pas une tâche aisée, ce qui
justifie la nécessité d’un langage suffisamment nuancé et complexe pour fournir
les outils indispensables à une expression d’idées riches et précises. De ce fait,
l’analyse automatique du langage s’érige en véritable défi.
Cette complexité est particulièrement évidente dans le domaine de la
traduction. Il est impossible de produire une traduction de qualité si l’on se
limite à une conversion mot à mot, car la position des mots dans la phrase ainsi
que le contexte influencent profondément la signification (voir Figure 23 pour
un très mauvais exemple de traduction mot à mot). C’est en partie pour cette
raison que, avant l’introduction des algorithmes de deep learning dans le
domaine de la traduction, les outils de traduction automatique étaient souvent
très peu efficaces.
Figure 23. Exemple d’une des pires traductions mot à mot en anglais

Source : autrice

Yann LeCun, éminent chercheur français en deep learning, insistait sur la


dimension « compositionnelle » du langage. Ce terme renvoie à l’idée que dans
une phrase, les mots s’assemblent pour former un sens plus complexe que la
somme de leurs significations individuelles. Autrement dit, le sens global d’une
phrase est construit à partir des sens de ses mots individuels mais aussi de la
façon dont ils sont combinés entre eux. Ainsi, les mots dépendent fortement les
uns des autres ainsi que de leur contexte. Pour véritablement comprendre le
langage, on peut donc commencer par représenter ces mots les uns par rapport
aux autres selon les positions qu’ils occupent dans des phrases et leurs contextes.
Cette démarche nécessite d’analyser de vastes ensembles de données textuelles,
avec des millions de phrases, et d’observer les relations que les mots
entretiennent entre eux selon leur contexte d’utilisation. Concrètement, on
pourra dire que des mots seront considérés comme étant proches s’ils
apparaissent fréquemment dans des contextes similaires. Prenons un exemple : si
dans de nombreux textes, nous trouvons les phrases « La voiture roule sur la
route » mais aussi « La moto roule sur une route », il est probable que les
concepts de « moto » et de « voiture » soient proches dans notre langage, car ils
sont utilisés dans des contextes similaires. Ils sont tous deux associés à l’action
de « rouler » sur une « route ». Des mots vont être ainsi plus ou moins distants
ou proches les uns des autres selon le contexte dans lequel ils sont employés.
Pour représenter et analyser les relations entre les mots en fonction de leur
contexte d’utilisation, les chercheurs en traitement du langage naturel utilisent
un concept mathématique clé : les espaces vectoriels. Un espace vectoriel, dans
ce contexte, est une structure mathématique dans laquelle chaque mot est
représenté comme un vecteur dans un espace à plusieurs dimensions. Ces
vecteurs ne sont pas des entités abstraites, mais des listes de nombres qui
capturent différentes facettes de la signification d’un mot. L’idée centrale est que
les mots qui apparaissent dans des contextes similaires auront des vecteurs qui
sont proches les uns des autres dans cet espace. Ainsi, ces espaces vectoriels
fonctionnent en quelque sorte comme des cartographies de la signification des
mots, où la distance entre deux points reflète la relation sémantique entre les
mots qu’ils représentent.
Pour illustrer la manière dont ces espaces vectoriels fonctionnent, imaginons
un plan en deux dimensions, comme une carte, où nous allons placer des mots en
fonction de leur signification et de leur utilisation (voir Figure 24). Plaçons
d’abord le mot « chat » quelque part sur ce plan. Maintenant, réfléchissons à
l’endroit où nous pourrions placer d’autres animaux sur cette carte :
• Le chien : Nous placerions probablement le mot « chien » au même niveau
que le mot « chat » sur cette carte. Pourquoi ? Parce que dans notre utilisation
quotidienne de la langue, ces deux mots apparaissent souvent dans des
contextes similaires : ce sont tous les deux des animaux de compagnie
populaires, des mammifères, et ils sont souvent associés à la vie domestique.
Ils partagent donc de nombreuses caractéristiques communes.
• La panthère : Ce mot serait également placé près du mot « chat », mais
probablement dans une direction différente de celle du mot « chien ». Les
chats et les panthères sont tous les deux des félins, mais la panthère est un
animal sauvage et n’est généralement pas un animal de compagnie. Elle est
proche du « chat » en termes de classification biologique, mais éloignée du
« chien » en termes de relation avec les humains.
• Le loup : Ce mot pourrait être placé près du mot « chien », car les chiens et
les loups sont tous les deux des canidés. Ils partagent une parenté biologique
étroite. Tout comme la panthère, le loup est également un animal sauvage,
donc il pourrait se situer dans une direction qui le rapproche des animaux
sauvages sur notre carte.
En visualisant ces relations, nous construisons une sorte de carte mentale. Sur
cette carte, la « distance » entre les mots reflète la similarité de leurs
significations : les mots qui sont proches les uns des autres sur cette carte sont
utilisés dans des contextes similaires et partagent des aspects de signification.
Figure 24. Représentation vectorielle schématique des mots chat, chien, loup et panthère

Source : autrice ; photos issues de Pixabay.com

Ce que nous venons de faire avec quatre mots dans un espace vectoriel à deux
dimensions, nous pouvons envisager de le faire pour des milliers de mots dans
des espaces vectoriels à plusieurs centaines de dimensions. C’est l’objectif des
chercheurs en intelligence artificielle. Au sein de cet espace vectoriel, chaque
mot est défini par un vecteur qui reflète son emplacement selon les contextes
dans lesquels le mot est le plus souvent employé. Le vecteur est ainsi une série
de valeurs numériques qui opèrent comme des coordonnées définissant la
position du mot. Chaque dimension représente un aspect de la signification du
mot, déterminé par la manière dont ce mot coexiste avec d’autres dans des
contextes linguistiques variés. Bien que nous ne puissions pas visualiser
directement un espace de centaines de dimensions, nous utilisons des
algorithmes pour manipuler ces vecteurs et comprendre leur relation, permettant
aux ordinateurs de traiter le langage avec une nuance et une précision
remarquables.
L’avantage majeur de cette approche est que les relations entre les mots
peuvent être formulées mathématiquement grâce à des opérations entre ces
vecteurs. Considérons l’exemple suivant : l’opération ROI + FEMME –
HOMME. À votre avis, à quoi correspond le résultat ? La réponse est… REINE.
Autrement dit, dans cet espace vectoriel, l’addition du vecteur ROI avec le
vecteur FEMME, suivi de la soustraction du vecteur HOMME, nous rapproche
du vecteur REINE. Essayons un autre exemple : si l’opération est PARIS –
FRANCE + ITALIE, quelle serait la solution ? Il s’agirait de ROME.
Évidemment, la réalité n’est pas aussi simpliste, mais cette illustration donne
une idée de la manière dont on peut établir des liens entre les mots et chercher à
les représenter les uns par rapport aux autres dans un espace mathématique. Et si
cette approche fonctionne pour des mots, pourquoi ne pas l’étendre aux pensées
ou aux idées complexes ? En utilisant les mêmes principes de représentation
vectorielle que nous avons explorés pour les mots, on pourrait envisager de créer
un modèle mental du monde plus élaboré.
Imaginez, par exemple, positionner non pas seulement le mot « justice » dans
cet espace vectoriel, mais l’idée complète du « principe de justice équitable »,
avec toutes ses nuances et implications. Ce concept plus large pourrait être
proche de l’idée de « droits de l’homme » dans cet espace, parce qu’ils partagent
des valeurs et des principes communs. Ainsi, cette approche nous permettrait de
cartographier non seulement la signification des mots, mais aussi les relations
plus complexes entre différentes idées ou pensées, contribuant ainsi à développer
une intelligence artificielle capable de « raisonner » de manière plus proche de la
pensée humaine. Cela vous donne donc une idée de l’immense potentiel que
cette approche du traitement du langage ouvre pour le développement de futures
intelligences artificielles généralistes.

2.3. Définition et fonctionnement du NLP


L’intelligence artificielle appliquée au traitement du langage est souvent
désignée par son acronyme anglais, NLP, qui signifie Natural Language
Processing, ou en français, le traitement automatique du langage naturel. Par
« langage naturel », on entend la langue utilisée par les êtres humains pour
communiquer, à savoir une langue vivante qui évolue constamment au fil du
temps et des usages. Ce langage se distingue du langage formel, tel que le
langage informatique par exemple, qui est conçu pour communiquer sans
ambiguïté. Contrairement au langage formel, le langage naturel est spontané et
sujet à de nombreux facteurs contextuels, ce qui le rend complexe à analyser et à
interpréter de manière automatique. L’objectif du NLP est d’utiliser des
méthodes issues de l’intelligence artificielle, comme le machine learning, pour
apprendre aux ordinateurs à comprendre le langage humain tel que nous
l’utilisons au quotidien, que ce soit dans nos écrits ou nos conversations. En
d’autres termes, le NLP vise à enseigner aux machines comment décoder la
structure grammaticale de nos phrases et à saisir le sens véritable de nos mots,
tout cela de manière automatisée.
Les premiers travaux sur le NLP remontent aux années 1950, et les résultats de
ces efforts initiaux étaient loin d’être satisfaisants (Khurana et al., 2023).
Cependant, d’importants progrès ont été réalisés ces dernières années. Ces
avancées sont principalement dues à la disponibilité de volumes massifs de
données, avec une profusion de textes à analyser, ainsi qu’au développement
d’algorithmes plus sophistiqués. Comme nous l’avons vu, pour saisir les nuances
des phrases, il est essentiel d’analyser les mots et de les positionner les uns par
rapport aux autres dans un espace de significations, ce qui permet d’appréhender
plus précisément le contexte dans lequel ils sont utilisés. Or, confier cette tâche à
l’humain paraît impensable. En effet, le défi ne réside pas uniquement dans le
volume considérable de mots existants, mais aussi dans la complexité inhérente à
chaque mot. Chaque terme peut revêtir plusieurs sens, varier en fonction du
contexte, de la culture ou même de l’époque. Ainsi, cartographier manuellement
chaque mot en fonction de tous ses usages, nuances et contextes possibles,
représenterait un travail colossal et sans fin. La bonne nouvelle, c’est que, grâce
aux avancées récentes dans le domaine, ce travail va plutôt pouvoir être confié à
des algorithmes de deep learning, qui s’entraînent automatiquement sur des
volumes considérables de données textuelles. Ces modèles nous permettent de
créer plus facilement et rapidement des espaces de significations, qui à leur tour
facilitent le traitement et la génération de texte de manière automatique.
Pour mieux comprendre ces évolutions, voici un rapide historique des quelques
algorithmes notables qui ont marqué les grandes avancées dans le domaine du
NLP.
Il convient de mentionner en premier lieu le programme développé par Google
en 2013 : Word2Vec (Mikolov et al., 2013). L’idée de ce programme est
justement de transformer les mots en vecteurs, afin de leur attribuer une
signification mathématique. Ce sont les premiers exemples de ce que l’on
appelle les word embeddings. Cette technique vise à mieux contextualiser la
compréhension des mots, en les positionnant les uns par rapport aux autres dans
un espace vectoriel, facilitant ainsi leur encodage informatique. Cette
transformation permet notamment de réaliser des opérations mathématiques avec
des mots ainsi vectorisés, comme nous avons pu le voir avec notre illustration
précédente (ex. ROI + FEMME – HOMME = REINE). Toutefois, bien que cette
vectorisation des mots soit une avancée significative, qui constitue une étape
cruciale avant l’application d’algorithmes de machine learning sur ces données,
elle n’est pas suffisante à elle seule.
En effet, pour comprendre véritablement le sens d’une phrase, il est essentiel
de prendre en compte la structure de la phrase ou du paragraphe. Une phrase
n’est pas simplement une succession de mots aléatoires ; la position de chaque
mot au sein d’une même phrase ou d’un paragraphe donné revêt une importance
significative qu’il est crucial de considérer. Cet aspect est particulièrement
important si l’on souhaite développer des intelligences artificielles capables de
générer du texte cohérent et sensé. Prenons, par exemple, ce texte que l’on
aimerait faire compléter par une IA : « Martine a passé la journée à la plage. Elle
a bien profité du moment, en bronzant et en discutant avec ses copines. Le soir
elle s’est baladée dans la ville, mais elle regretta de ne pas être rentrée chez elle
pendre une douche avant d’aller boire un verre avec ses amies. En effet, ce
n’était pas du tout agréable de marcher car elle avait ses chaussures pleines
de… » Quel mot avez-vous envie de mettre pour terminer la phrase ? Le mot
« sable » vous vient probablement à l’esprit, étant donné que Martine a passé la
journée à la plage. Mais pour que l’IA arrive à cette conclusion, elle doit être
capable de se souvenir de ce qui était mentionné au début du texte, à savoir :
« Martine a passé la journée à la plage ». Cette nécessité de maintenir une
mémoire du contexte a longtemps représenté un défi majeur dans la construction
de modèles de traitement et de génération de texte.
Initialement, pour générer du texte automatiquement, on employait des chaînes
de Markov qui se limitaient à mémoriser les six derniers mots d’une phrase. Une
chaîne de Markov est un modèle mathématique qui décrit comment les
événements se succèdent de manière aléatoire, tout en dépendant uniquement de
l’état précédent. Imaginons une série de dominos alignés ; chaque domino
tombera en frappant le suivant, mais chaque chute est indépendante de la
manière dont tous les autres dominos précédents sont tombés. Dans le contexte
du traitement du texte, une chaîne de Markov considère uniquement un nombre
fixe de mots précédents pour prédire le mot suivant, sans tenir compte du
contexte plus large du texte. Comme vous pouvez l’imaginer, cette approche
aurait été insuffisante pour compléter notre exemple de Martine à la plage de
façon satisfaisante. Par la suite, les « réseaux de neurones récurrents » ou
Recurrent Neural Network (RNN), basés sur du deep learning, se sont avérés
plus efficaces, en offrant la possibilité de mettre davantage de mots en mémoire.
Les RNN, sont une catégorie de réseaux de neurones utilisés dans
l’apprentissage automatique pour travailler avec des séquences de données. Ils
sont dits « récurrents » car ils réalisent la tâche de mémorisation en effectuant la
même opération à chaque étape de la séquence, c’est-à-dire en utilisant le
résultat de l’étape précédente comme une partie de l’entrée pour l’étape actuelle.
Cette récurrence crée une sorte de mémoire qui permet au réseau de neurones de
prendre en compte non seulement le mot actuel mais aussi le contexte fourni par
les mots précédents. Toutefois, les RNN traditionnels ont des difficultés à
mémoriser les informations pour des textes longs. Pour résoudre ce problème, on
a créé des RNN avec des systèmes de gates ou « portes », que l’on nomme les
LSTM pour Long Short-Term Memory. Les LSTM, sont une forme spéciale de
RNN conçues pour éviter les problèmes d’apprentissage à long terme et de
mémorisation que rencontrent les RNN standards (Shi et al., 2015). Popularisés
en 2015, ces LSTM présentent une architecture un peu plus complexe et
affichent des performances supérieures. Avec leurs systèmes de « portes », ils
agissent un peu comme un gardien de but qui décide quelles informations du
passé sont importantes (et les conserve) et quelles informations ne le sont pas (et
les écarte).
Toutefois, la véritable révolution dans le domaine du NLP est marquée par
l’arrivée d’un nouveau concept appelé transformers. Contrairement à ce que leur
nom pourrait laisser penser, les transformers ne sont pas des super-héros, mais
bien une nouvelle et puissante architecture de deep learning. Développés par
Google et introduits en 2017, ils ont représenté un tournant significatif dans la
compréhension du langage naturel par les machines (Vaswani et al., 2023).
Jusqu’à cette innovation, les algorithmes de NLP peinaient à comprendre
efficacement le langage humain dans toute sa complexité. Contrairement aux
RNN et LSTM qui traitent les mots séquentiellement, les transformers, eux,
permettent un traitement parallèle de tous les mots dans une phrase, ce qui rend
leur entraînement beaucoup plus rapide et efficace. Grâce à leur architecture
sophistiquée, les transformers ont montré des résultats qui surpassent les
précédentes méthodes. Ils ont apporté des améliorations notables dans la
capacité des machines à comprendre et à générer du texte de manière
contextuellement pertinente. Un élément central de cette architecture est le
« mécanisme d’attention », qui peut être vu comme les « yeux » de l’algorithme.
Il permet aux transformers de « regarder » différentes parties d’un texte quand
ils essaient de comprendre le sens d’un mot particulier dans ce texte. En somme,
cette technologie donne aux algorithmes la capacité d’attirer son attention sur
certaines parties importantes du texte pour bien saisir le contexte et se souvenir
de ce qui a été dit précédemment, offrant ainsi une analyse bien plus riche du
langage. Par exemple, dans notre phrase sur Martine à la plage, le transformer
sera capable de reconnaître que le mot manquant doit être en lien avec la plage et
proposera ainsi « sable » comme option très probable.
Parmi les incarnations les plus célèbres des transformers, on retrouve BERT,
un algorithme de deep learning également développé par Google. Et cette
innovation ne se limite pas à la sphère anglophone : des variantes francophones,
telles que CamemBERT et FlauBERT, ont également vu le jour (Le et al., 2020 ;
Martin et al., 2020). Les développeurs étaient visiblement très inspirés au
moment de choisir les noms de leurs algorithmes… Enfin, une autre avancée
notable est le développement des modèles GPT (Generative Pre-trained
Transformer) par OpenAI. Lancé en 2018, GPT a marqué un tournant dans le
traitement du langage naturel. Ces modèles ont été pré-entraînés sur une quantité
massive de données textuelles, ce qui leur confère une capacité de généralisation
sans précédent. En apprenant des patterns de langage dans une diversité de
contextes, GPT peut appliquer ses connaissances à une large gamme de tâches,
telles que la traduction de langue, la génération de texte cohérent, ou encore la
compréhension de requêtes complexes. Cette approche « pré-entraînement puis
affinement » permet à GPT de s’adapter à des contextes spécifiques en se basant
sur son apprentissage initial, qui couvre une étendue vaste du savoir humain
exprimé en langage naturel. Sa troisième version, GPT-3, dévoilée en 2020, se
base sur l’architecture des transformers et s’est imposée comme l’un des
modèles de compréhension du langage les plus puissants, avec près de 175
milliards de paramètres ajustables. Elle s’est rapidement distinguée par sa
capacité de généralisation singulière, qui lui permet de comprendre et de générer
du texte de manière contextuellement riche, ouvrant la voie à des applications
variées et innovantes. En 2023, nous en sommes déjà à la version 4 de GPT.
Chacun de ces algorithmes a contribué différemment à faire progresser le NLP.
Word2Vec permet de transformer les mots en vecteurs, tandis que les
transformers, par exemple, visent à conserver en mémoire et à attribuer des
poids aux mots importants afin de traiter une phrase ou un paragraphe dans son
ensemble. Combinés à une quantité importante de textes disponibles, ces
algorithmes ont ainsi permis de réaliser des avancées significatives dans la
compréhension et la génération de texte en langage naturel.

2.4. Le pré-entraînement génératif avec GPT-3


Comme nous venons de le voir, en 2020, OpenAI lance un des plus gros
algorithmes de deep learning destinés au traitement du texte, qui suscite un large
écho en raison de ses résultats impressionnants, notamment dans la génération de
texte. D’après le New York Times, cet algorithme est capable de générer des
textes si convaincants qu’il est difficile de déterminer s’ils ont été écrits par des
humains ou par une IA10. Il s’agit de GPT-3, qui correspond à la troisième
version de l’algorithme GPT. Cet algorithme s’appuie donc sur des transformers
mais en les combinant avec une technique appelée le transfer learning. Le
principe du transfer learning est le suivant : on construit un modèle générique
pré-entraîné, que l’on va ensuite pouvoir utiliser dans différents contextes en
adaptant l’algorithme et en l’entraînant sur des nouvelles données appropriées.
Prenons une métaphore qui va vous aider à mieux comprendre. Imaginons que
vous soyez dans votre cuisine – oui, j’ai un penchant pour les métaphores
culinaires, comme vous commencez sûrement à le remarquer. Vous réalisez une
mayonnaise. Mais au lieu de faire une mayonnaise pour votre repas du soir, vous
décidez de préparer des litres de mayonnaise que vous allez stocker dans votre
réfrigérateur. L’avantage de faire cela, c’est que vous pourrez utiliser cette
mayonnaise comme base pour créer diverses sauces adaptées à vos différents
repas de la semaine. Le lendemain, vous pouvez très bien récupérer un peu de
mayonnaise stockée, y ajouter de l’ail et obtenir une sauce aïoli parfaite pour
accompagner votre cabillaud et vos légumes. De même, en ajoutant de la sauce
ketchup à cette mayonnaise, vous obtenez une sauce cocktail idéale pour vos
crudités. Vous pouvez également prendre un peu de cette mayonnaise, ajouter du
persil, de la ciboulette, du cerfeuil, de l’estragon, des câpres et des cornichons, et
cela vous fait une bonne sauce tartare pour accompagner votre viande. En
somme, cette base de mayonnaise peut être transformée en une variété de sauces,
sans que vous ayez à préparer une nouvelle mayonnaise à chaque fois (voir
Figure 25). Il vous suffit d’ajouter certains ingrédients appropriés à votre base.
Figure 25. Illustration du fine tuning avec la métaphore de la mayonnaise
Source : autrice ; pictogrammes issus de Flaticon.com

C’est exactement ce que fait GPT avec le texte. On dispose d’un modèle pré-
entraîné, comparable à cette mayonnaise, que l’on peut adapter à un contexte
donné en y ajoutant des « ingrédients » sous forme de nouvelles données. Ce
processus d’adaptation s’appelle le fine tuning en anglais. L’idée du fine tuning
est d’introduire un nouveau lot de données pertinentes à la tâche voulue (nos
ingrédients) et GPT ajuste ses paramètres en fonction de ces nouvelles données,
un peu comme si le modèle apprenait une nouvelle recette à partir de sa base de
mayonnaise. Imaginons que nous souhaitons que GPT traduise des textes de
l’anglais vers le français. Pour ce faire, nous commençons par collecter un grand
nombre de phrases en anglais et leurs traductions françaises associées. Ensuite,
nous utilisons ces paires de phrases comme nouvelles données d’entraînement
pour GPT. Durant ce « ré-entraînement », le modèle ajuste ses paramètres
internes pour apprendre à associer chaque phrase en anglais à sa correspondante
en français. Grâce à cette méthode, GPT améliore ses compétences en traduction
en se basant sur sa capacité d’apprentissage antérieure, évitant ainsi de repartir
de zéro. Cela signifie que GPT utilise son vaste apprentissage préalable comme
base et construit à partir de celui-ci via des exemples spécifiques de traduction
qu’on lui fournit, ce qui lui permet de progressivement se spécialiser dans la
tâche de traduction que nous désirons (voir Figure 26). C’est la force de GPT : il
peut apprendre à réaliser de nouvelles tâches en s’appuyant sur son
apprentissage initial.
Figure 26. Le fine tuning avec GPT
Source : autrice ; pictogrammes issus de Vectorportal.com
Pour que cela fonctionne bien, le modèle de GPT est très complexe avec
énormément de couches et de paramètres. Pour vous donner une idée, GPT-3
compte environ 100 fois plus de paramètres que sa version précédente, GPT-2,
avec un total d’environ 175 milliards de paramètres dans son modèle (Heaven,
2020). Pour mettre cela en perspective, rappelez-vous qu’une simple équation
linéaire n’a que deux paramètres. Cela donne une idée de la complexité
phénoménale de ce système. Pour atteindre une telle envergure, ce modèle a
nécessité un entraînement sur une quantité colossale de données : plusieurs
centaines de milliards de mots. On estime que le corpus de texte sur lequel GPT-
3 a été entraîné est 50 fois plus volumineux que celui de GPT-2 et correspond à
plus de 160 fois la totalité des textes présents sur Wikipédia, toutes langues
confondues. C’est considérable.
Cette version de GPT est devenue tellement vaste et sophistiquée qu’elle est
capable d’effectuer des tâches bien au-delà de la simple génération de texte,
souvent sans nécessiter de fine tuning spécifique. Cela signifie que, dans son état
pré-entraîné, GPT peut déjà comprendre et générer du texte dans un grand
nombre de contextes. Par exemple, il peut aider à rédiger des textes dans un
certain style, traduire des textes, les résumer ou répondre à des questions en se
basant sur des informations générales. Précisons cependant que le nombre de
paramètres d’un modèle ne fait pas tout. L’architecture du réseau et la qualité des
données d’entraînement jouent un rôle important pour expliquer les
performances d’un modèle de langage.
Aujourd’hui, GPT-3 a laissé place à la version supérieure, GPT-4, qui possède
encore plus de paramètres. Bien que le nombre exact de paramètres de GPT-4
demeure inconnu, plusieurs rumeurs évoquent un chiffre dépassant les 1 000
milliards de paramètres. Ces modèles colossaux sont fréquemment désignés sous
le terme anglais de LLM, pour Large Language Models. Le qualificatif Large
souligne la dimension phénoménale de ces modèles en matière de nombre de
paramètres. Dotés de milliers de milliards de paramètres, ils parviennent à saisir
une myriade de subtilités du langage humain et à exceller dans de nombreuses
tâches avec une précision sans précédent.
GPT-3 et GPT-4 sont des exemples de LLM. Ils sont entraînés sur des corpus
de texte gigantesques, ce qui leur permet d’avoir une compréhension assez large
et profonde du langage humain. Leur polyvalence est telle qu’ils peuvent
produire du texte original, analyser des contenus, traduire entre différentes
langues, synthétiser des documents, et bien plus. Cette avancée majeure dans le
domaine des LLM nourrit l’idée que nous approchons d’une forme d’intelligence
artificielle véritablement générale. Toutefois, il est important de se rappeler que
les LLM, malgré leurs prouesses, restent de simples outils. Ils ne possèdent ni
conscience ni compréhension du monde comparable à celle des humains. Ils
génèrent des réponses en fonction des données sur lesquelles ils ont été entraînés
et leurs réponses sont donc limitées par ces données. De plus, leur puissance et
leur polyvalence soulèvent d’importants enjeux éthiques, notamment en termes
de risques associés à une mauvaise utilisation ou à des biais intégrés, que nous
évoquerons en détail plus loin dans le livre. Mais il est certain que leur évolution
a ouvert la voie à des applications toujours plus impressionnantes !

2.5. Quelques applications du NLP


Les avancées en traitement automatique du langage naturel (NLP) ont été la
source de nombreuses innovations et applications intéressantes. Bien avant
l’arrivée de modèles aussi imposants que GPT-3 ou GPT-4, d’importants progrès
étaient déjà en marche. En 2018, par exemple, l’IA de Alibaba, conçue par
Microsoft, a surpris tout le monde en surpassant l’être humain dans des tests de
lecture et de compréhension (Fouquet, 2018). Aujourd’hui, de nombreuses
applications découlent de ces avancées et font partie intégrante de notre
quotidien.
Les chatbots, omniprésents sur les plateformes en ligne, sont une illustration
concrète des applications du NLP que l’on peut trouver aujourd’hui. Si vous
avez visité un site marchand récemment, il y a de fortes chances que vous ayez
interagi avec l’un d’eux. Ces assistants, bien que largement perfectibles à leurs
débuts, ont connu une nette amélioration en termes d’efficacité et de pertinence
ces dernières années. Par exemple, Ora, le chatbot de Sephora, a été salué pour
sa capacité à offrir une expérience client personnalisée, avec des fonctions telles
que la suggestion de produits appropriés et la proposition de tutoriels. Son
intégration réussie sur Facebook Messenger couplée aux quelques éloges
médiatiques, l’a rapidement positionné comme une référence dans le e-
commerce11.
La traduction automatique est un autre champ où le NLP, combiné au deep
learning, a révolutionné les méthodes existantes. DeepL en est la preuve vivante.
En un temps record, ce traducteur est devenu une référence, surpassant de loin
les performances de ses prédécesseurs.
Quant aux assistants vocaux tels que Siri, Alexa, ou Google Home, ils ont
littéralement envahi nos quotidiens. De la planification d’une réunion à la
commande d’un repas, ils traitent nos demandes avec une aisance grandissante.
Grâce au NLP, les assistants peuvent interpréter nos requêtes en langage naturel
et y répondre de manière appropriée. C’est vraiment fascinant de voir à quel
point les évolutions récentes ont grandement amélioré notre capacité à
communiquer avec les machines de manière si fluide.
Évidemment, grâce au NLP, les moteurs de recherche, comme Google, se sont
perfectionnés au fil des années pour mieux comprendre l’intention des
utilisateurs. Ils proposent désormais des réponses immédiates à certaines
requêtes, directement en haut de la page de résultats, améliorant ainsi
l’expérience utilisateur. De plus, des fonctionnalités telles que la saisie intuitive
dans Gmail ou encore la saisie automatique sur le clavier des iPhone exploitent
également les capacités du NLP pour faciliter la communication. Spotify, de son
côté, utilise le NLP pour analyser ce qui est dit sur un artiste ou un titre,
contribuant à affiner ses recommandations musicales.
Au-delà de ces applications grand public, le NLP s’impose de plus en plus en
entreprise. Il offre également des applications moins médiatisées mais tout aussi
essentielles. On peut citer la classification des sentiments dans les textes, outil
précieux pour les entreprises pratiquant le social listening. Cela leur permet de
discerner automatiquement si un commentaire d’utilisateur est positif, négatif ou
neutre. Le NLP s’illustre également dans l’analyse thématique des contenus,
pour mettre en lumière les messages clés d’un texte ou commentaire. Et pour les
textes plus denses, le NLP est également un bon facilitateur à la création de
résumés concis.
Enfin, avec l’essor des IA génératives, le NLP est également employé pour
générer du contenu inédit. GPT-3 est un exemple emblématique d’un algorithme
très performant pour cet usage, qu’il s’agisse de la rédaction d’articles, de la
création de poèmes ou de l’écriture de codes informatiques. À la sortie de ce
modèle, OpenAI a d’ailleurs mis à disposition un espace, appelé Playground, une
plateforme interactive permettant de tester les capacités de GPT-3. Les
utilisateurs fournissent une série d’instructions et le modèle génère les réponses
désirées. Cet outil a servi d’espace d’essai en temps réel pour de nombreux
développeurs et écrivains curieux de son potentiel. Évidemment avec la sortie de
GPT-4 et de ChatGPT, le paysage des technologies de traitement du langage
naturel a connu une transformation rapide. Ces avancées ont permis de
développer des applications plus sophistiquées en matière de compréhension et
de génération de textes, offrant des possibilités inédites dans des domaines
variés. Par exemple ces nouveaux modèles ont été utilisés dans le secteur du
service client avec une sophistication importante des chatbots, comme cela fut le
cas avec l’entreprise Carrefour qui a annoncé le lancement de leur nouveau
chatbot Hopla basé sur GPT-412 par exemple, mais aussi le secteur de l’éduction
avec des outils de tutorat personnalisé13 ou encore le domaine juridique avec des
aides à la rédaction de documents légaux par exemple14. Ces exemples ne sont
qu’un aperçu des capacités étendues de ces IA, et on s’attend à ce que leur
utilisation se diversifie encore plus dans de nombreux autres secteurs, continuant
à transformer notre façon de travailler et d’interagir avec la technologie.
Mais la force du traitement du langage ne se limite pas à la création de textes.
En effet, le même principe de compréhension et de manipulation du langage qui
permet à GPT-3 de générer du texte se révèle être un tremplin vers une nouvelle
dimension de l’innovation créative : la génération d’images. En capitalisant sur
l’expertise acquise dans l’interprétation des mots, les chercheurs d’OpenAI ont
franchi une nouvelle étape, permettant de visualiser le langage sous forme
d’images. Ainsi, en 2022, avec le lancement de DALL-E 2, OpenAI a fusionné
le NLP avec les progrès en vision par ordinateur. Au lieu de simplement générer
du texte à partir d’une analyse textuelle, DALL-E 2 est capable de créer des
images entièrement nouvelles, complètement inventées, qui n’existent nulle part
ailleurs.
On peut donc générer des images à partir d’un simple prompt. En quelques
mots, un prompt est une courte instruction ou description textuelle donnée à un
modèle d’IA pour le guider dans la tâche qu’il doit accomplir. Ainsi, on peut
générer des images à partir d’un prompt, en le fournissant comme directive à
l’IA pour la création d’une image précise. Et ce qui est encore plus fascinant
c’est qu’un même prompt peut donner lieu à différentes versions d’images.
Chaque génération pourrait offrir des perspectives, des styles ou des ambiances
variées, élargissant ainsi le champ des possibles pour les créateurs.
Mais les capacités de DALL-E 2 ne se limitent pas à la génération d’images à
partir de zéro. Une autre application particulièrement intéressante est de fournir à
la fois un prompt textuel et une image déjà existante en entrée. On peut alors par
exemple lui demander des variations d’une image donnée en entrée. Imaginez
que vous trouviez une image d’une salle de bain qui vous plaît, mais souhaitez
voir des alternatives qui ressemblent à cette salle de bain. Il suffit de fournir cette
image à DALL-E 2 accompagnée d’une instruction demandant des variantes de
l’image, et l’IA vous présentera alors des variations correspondant à votre
demande. Vous pouvez aussi lui demander d’ajouter, de retirer ou de modifier
des éléments précis.
D’autres acteurs que OpenAI ont développé des solutions similaires de
génération d’images. Par exemple, on trouve Stable Diffusion, qui est un modèle
d’IA génératrice disponible en open source, dont vous pouvez explorer les
fonctionnalités sur Hugging Face15. On trouve aussi Midjourney, un laboratoire
de recherche indépendant. Ce laboratoire produit des IA capables de créer des
images à partir de descriptions textuelles. L’impact de leur travail a été mis en
lumière lorsque Jason Allen a remporté une compétition de peinture numérique
grâce à une œuvre entièrement réalisée par l’IA de Midjourney (Harwell, 2022).
Ce qui est exceptionnel, c’est que Jason Allen n’a pas eu besoin d’utiliser
d’instruments artistiques traditionnels pour créer l’œuvre, seulement quelques
outils de retouche. Au lieu de cela, il a joué avec des formulations pour guider
l’IA dans la production d’images combinant un univers spatial avec des
costumes historiques. Suite à environ 80 heures de travail et la génération de
plus de 900 images, seulement trois d’entre elles ont été sélectionnées et
légèrement retouchées avant d’être présentées au concours de la Colorado State
Fair, que Jason Allen a remporté16.
Cette prouesse démontre non seulement la puissance de ces technologies mais
aussi la manière dont elles peuvent révolutionner des domaines comme celui de
l’art.

2.6. Le phénomène de ChatGPT et des IA génératives


Le NLP n’est donc pas une nouveauté et ces dernières années nous avons
assisté à l’émergence de nombreuses applications dans ce domaine. Des acteurs
majeurs comme Google ou OpenAI ont considérablement alimenté le progrès
technologique dans ce champ de l’IA, repoussant les frontières de ce que nous
pensions possible avec l’intelligence artificielle. Ces avancées, impressionnantes
et régulières sont devenues presque courantes pour ceux qui suivent le domaine
de près. Pourtant, malgré ces progrès constants, c’est fin 2022 que l’attention du
monde entier s’est véritablement focalisée sur le NLP et l’IA, avec la sortie
retentissante du fameux ChatGPT. Pour contextualiser et définir ce qu’est
ChatGPT, posons-lui la question directement. Quand on lui demande « Peux-tu
te présenter ? », il nous fournit une répondre assez claire et précise (voir Figure
27).
Figure 27. Présentation de ChatGPT par ChatGPT

Source : ChatGPT

La rapidité avec laquelle ce modèle de traitement du langage a fait sensation


est sans précédent. Quelques jours après son lancement, il avait déjà attiré plus
d’un million de curieux, créant un engouement médiatique inédit pour le
domaine de l’IA (Buchholz, 2023). Sur Google Trends, les termes liés à
ChatGPT et à l’IA ont connu une explosion d’intérêt, surpassant tous les records
des cinq dernières années, et ce, malgré le fait que GPT existe depuis 2018 (voir
Figure 28).
Figure 28. Évolution sur les cinq dernières années de l’intérêt pour les termes « ChatGPT », « Intelligence
artificielle » et « GPT » sur Google Trends
Source : autrice via Google Trends

Mais qu’est-ce qui a rendu ChatGPT si spécial et différent ? Tout d’abord, son
interface utilisateur. L’interaction avec ChatGPT est d’une simplicité enfantine.
Contrairement à d’autres outils d’IA du passé, il n’y a pas besoin d’avoir des
compétences en codage ou en programmation. Il suffit de poser une question en
langage naturel et de recevoir une réponse. Cette accessibilité, combinée à sa
disponibilité gratuite, a permis à un vaste public non seulement de le tester mais
aussi de partager leurs expériences. Le rôle des médias ne peut être négligé non
plus. Leur focalisation sur ChatGPT a amplifié son attrait, le présentant comme
une innovation révolutionnaire au grand public.
Au cœur de cette effervescence, ChatGPT est avant tout une application
particulière du modèle GPT-3 d’OpenAI, spécialisé dans la compréhension et la
génération du langage naturel. D’ailleurs, vous pouviez obtenir des résultats
assez proches – que ce soit en matière de traduction, de génération de texte ou de
résumé – en utilisant la plateforme Playground que j’évoquais précédemment.
ChatGPT s’appuie donc sur le modèle GPT qui existait déjà bien avant son
lancement. Ce dernier a gagné sensiblement en performance en intégrant une
nouvelle méthode qui permet d’augmenter la pertinence des résultats : la
méthode RLHF pour Reinforcement Learning from Human Feedback ou
apprentissage par renforcement à partir de la rétroaction humaine. L’idée avec
cette méthode est d’affiner le modèle grâce à des corrections fournies par des
humains, afin d’améliorer la fiabilité des réponses.
Néanmoins, la véritable innovation de ChatGPT réside dans le fait que son
algorithme GPT-3, en plus d’être combiné à la méthode RLHF, a également été
intégré à une IA conversationnelle. Cette fusion a donné naissance à une
interface de chat qui non seulement génère des réponses pertinentes, mais se
souvient aussi de vos messages précédents pour offrir une conversation fluide et
contextuelle. Ainsi, l’interface de chat que propose ChatGPT est une avancée
notable, principalement grâce à l’intégration d’une mémoire conversationnelle
qui maintient le contexte, ce qui rend les interactions non seulement informatives
mais également personnalisées et engageantes. Cette innovation dans les IA
conversationnelles pourrait bien transformer notre façon d’interagir avec les
machines, en proposant des interfaces plus naturelles, intuitives et pertinentes.
Leurs applications potentielles sont vastes, allant du service client à l’assistance
personnelle, en passant par l’éducation. Dans le monde créatif, les écrivains,
musiciens et autres artistes peuvent d’ores et déjà solliciter ChatGPT pour
demander des suggestions. Le format conversationnel de ChatGPT, permet des
échanges dynamiques et la construction à partir de requêtes précédentes, offre
des réponses ultra pertinentes, ce qui favorise des idées riches et novatrices. Cet
échange interactif pousse les artistes à aller plus loin, à challenger et enrichir
leurs créations.
Au-delà du monde artistique, ChatGPT instaure une nouvelle synergie entre
l’homme et l’IA. En effet, l’interaction avec ChatGPT offre un cadre de
collaboration unique et inédit. L’utilisateur peut facilement fournir le contexte,
poser des questions et orienter la discussion, tandis que ChatGPT, grâce à son
vaste modèle de langage, propose des idées et des nouvelles perspectives ou
reformulations. Cette dynamique peut être particulièrement utile lors de sessions
de brainstorming. ChatGPT génère rapidement des suggestions, que les humains
peuvent ensuite affiner en fonction de leur expertise. Cette méthode de travail
permet d’intégrer l’IA dans le processus créatif, ce qui offre de nouvelles pistes
pour l’innovation. C’est cette dimension interactive et dynamique qui distingue
ChatGPT des outils d’IA antérieurs, et qui a captivé l’attention du monde entier.
Mais au-delà de cette innovation, la mise en lumière de ChatGPT a également
braqué les projecteurs sur un concept qui était encore méconnu du grand public,
mais que l’on voit maintenant cité partout : l’intelligence artificielle générative
ou Generative AI. L’IA générative, nous en avons parlé, est une branche de
l’intelligence artificielle qui vise à créer du contenu, en s’inspirant des données
qu’elle a assimilées. Elle ne se contente pas d’analyser, elle produit, elle élabore,
elle crée. Depuis ses débuts, ce concept a gagné en maturité, avec des capacités
toujours plus sophistiquées qui ont ouvert la voie à des applications pratiques
dans de nombreux secteurs professionnels.
En effet, ces IA génératives, incarnées par des outils comme ChatGPT,
s’apprêtent à révolutionner nos façons de travailler. Dans l’univers du
management et de la gestion de projet, elles pourraient bientôt rendre l’allocation
des ressources plus intuitive et la planification des tâches encore plus précise.
Imaginez un futur dans lequel un manager pourrait solliciter l’IA pour générer
des scénarios alternatifs de déroulement de projet, basés sur divers critères,
comme les ressources disponibles, les compétences et les échéanciers actuels par
exemple. Plutôt qu’une simple planification, on aurait une vision éclairée par des
simulations génératives. En matière de formation, l’IA générative pourrait
produire du contenu pédagogique adapté aux besoins de chaque apprenant, basé
non seulement sur ce qu’il sait, mais aussi sur la manière dont il apprend le
mieux. Cela permettrait une personnalisation poussée des parcours
d’apprentissage. Dans le domaine de la communication, les implications sont
également vastes. Dans un futur proche, les entreprises pourraient générer des
communiqués de presse adaptés à l’actualité du moment, tout en scrutant les
tendances médiatiques pour rester toujours en avance sur les discussions
publiques. En matière de marketing, publicité et innovation, la créativité de l’IA
générative sera sans nul doute un atout majeur. Qu’il s’agisse de créer du
contenu personnalisé, de générer des logos ou d’analyser les besoins des clients,
elle devrait se révéler de plus en plus précieuse. Aussi, plutôt que de s’appuyer
uniquement sur l’intuition humaine, les campagnes publicitaires et les designs
pourraient être informés et optimisés par l’IA.
En définitive, l’IA générative, récemment mise sur le devant de la scène grâce
au succès de ChatGPT, semble destinée à une incorporation grandissante dans le
paysage professionnel. Cette avancée pourrait radicalement transformer nos
méthodes de travail habituelles. Cependant, derrière le brillant potentiel de l’IA
et des LLM se cachent des risques éthiques majeurs que nous nous devons de
connaître, en particulier concernant la provenance et la qualité des données qui
alimentent ces systèmes.

3. MAUVAISE QUALITÉ DES DONNÉES ET IA BIAISÉES


Dans un contexte où l’IA prend une place prépondérante, avec notamment
l’émergence des LLM et l’ambition de créer des IA générales multidisciplinaires,
les géants de la tech comme Google, Microsoft et OpenAI intensifient leurs
efforts pour développer des algorithmes toujours plus sophistiqués. Pour que ces
modèles soient vraiment performants et capables de généraliser à un large
éventail de situations, il est nécessaire de les entraîner sur des bases de données
gigantesques. La dépendance à de telles quantités massives de données soulève
des préoccupations légitimes quant à la qualité des informations utilisées. En
effet, plus la base de données est volumineuse, plus il est ardu de garantir la
qualité et l’absence de biais dans ces données. Il existe donc un risque réel que
les algorithmes perpétuent et amplifient des biais existants, même si ceux-ci ne
sont pas souhaités.

3.1. Biais algorithmiques


Dans la presse, plusieurs scandales ont émergé autour d’intelligences
artificielles qui présentaient des comportements biaisés et inappropriés. Par
exemple, en 2016, Microsoft a lancé une IA nommée Tay, conçue pour imiter
une adolescente américaine qui interagissait sur Twitter. Tay n’était pas limitée à
des réponses préprogrammées, puisque grâce au machine learning, elle apprenait
à partir des données qui lui avaient été fournies et s’adaptait à chaque interaction
qu’elle avait avec les internautes. Non seulement elle tirait ses réponses des
données initiales de son entraînement, mais elle évoluait également en fonction
des échanges qu’elle avait sur la plateforme. En clair, cette IA possédait un
algorithme initial de traitement et de génération du langage, conçu pour évoluer
et s’enrichir au fil des discussions sur le réseau social. Toutefois, cette
adaptabilité s’est avérée être un problème. En quelques heures seulement,
influencée par des interactions malveillantes, Tay a commencé à adopter et
diffuser des discours racistes, antisémites et sexistes17. Comment cela se fait-il ?
Le principe fondamental de Tay était qu’elle adaptait son algorithme en fonction
de ce qu’elle observait sur les réseaux. Malheureusement, se trouvant exposée à
des interactions malveillantes, elle a commencé à reproduire des comportements
haineux visibles en ligne, en ajustant son algorithme en conséquence. Et comme
vous pouvez le voir, en seulement 24 heures, Tay est passée d’un discours du
type « les humains sont vraiment cool » à des discours antisémites et sexistes
(voir Figure 29).
Figure 29. Captures d’écran de tweets postés par Tay, l’IA de Microsoft
Source : Twitter (X)
Un autre exemple très connu est celui du système de recrutement automatisé
développé par Amazon18. Cette IA avait pour mission d’analyser les CV et de
sélectionner les candidatures les plus pertinentes pour des postes spécifiques.
Cependant, pour les postes à responsabilité ou plus techniques, l’IA écartait
souvent les profils féminins. Pour comprendre pourquoi, il faut se pencher sur la
manière dont elle a été formée : l’IA a basé son apprentissage sur les profils des
employés actuellement en poste. Or, une grande proportion des postes concernés
était occupée par des hommes. Pour autant, est-ce que le fait d’être un homme
est un critère pour le poste ? Pas du tout, au contraire l’objectif pour les
entreprises est souvent d’inverser la tendance et de désirer plus de diversité. Le
problème c’est que si l’algorithme s’appuie sur la réalité actuelle de l’entreprise
pour faire ses prédictions, il remarquera qu’il y a trois quarts d’hommes sur ce
poste, et donc que le genre semble être un critère déterminant pour avoir le
poste. Ainsi, quand l’IA aura à choisir entre une femme et un homme aux
compétences et profils comparables, elle aura tendance à privilégier le candidat
masculin.
Comme la machine apprend automatiquement à partir de données issues de
notre quotidien et de notre passé, elle est susceptible de perpétuer et renforcer les
bais existants de la société. Par nature, le machine learning et le deep learning
ont une tendance conservatrice. En apprenant du passé, ils peuvent reproduire les
biais inhérents à ce passé. Cependant, étant donné la sophistication croissante de
ces systèmes automatiques et leur caractère souvent peu interprétable, il est
parfois difficile d’identifier l’existence de ces biais ou de certains raisonnements
fallacieux. En ajustant des centaines de paramètres de son modèle, l’algorithme
se crée sa propre représentation des données avec lesquelles il est entraîné. Et
cette représentation peut être moralement biaisée.
Prenons un autre exemple, toujours dans le recrutement. Des solutions d’IA ont
progressivement vu le jour pour évaluer des candidatures, qu’il s’agisse
d’analyser des CV ou des candidatures vidéo. Le diffuseur allemand BR
(Bavarian Broadcasting) a mis en exergue certaines start-up promouvant « moins
de préjugés et davantage d’objectivité » grâce à leurs solutions IA. Pour cela, les
outils proposés par ces start-up proposent de scruter les candidatures vidéo, en
évaluant les candidats sur des critères variés comme le ton de la voix, le choix
des mots, les gestes ou encore les expressions faciales. Ils établissent alors un
profil comportemental basé sur le modèle OCEAN (acronyme pour Ouverture
d’esprit, Conscience professionnelle, Extraversion, Amabilité, et Nervosité), ce
qui, selon leurs concepteurs, devrait rendre le recrutement plus rapide, impartial
et équitable. Toutefois, une investigation menée par l’équipe journalistique de
BR a révélé des problèmes sérieux concernant l’objectivité et les biais de ces
outils. Leur recherche a révélé que des éléments aussi anodins qu’une paire de
lunettes ou un foulard dans les cheveux pouvaient influencer l’évaluation de la
personnalité du candidat. En faisant plusieurs tests, ils ont montré qu’une même
personne, déclamant le même texte avec la même intonation et les mêmes
expressions du visage, pouvait pourtant être évaluée différemment par l’IA,
simplement à cause de l’ajout d’un accessoire19.
Cette différence dans les évaluations de la personnalité faites par l’IA ne se
limite pas seulement à l’apparence du candidat et à ses accessoires. Les
journalistes de BR montrent que l’environnement, comme la présence d’une
étagère en arrière-plan, influence également l’évaluation de la personnalité. Cela
met d’ailleurs en évidence l’un des principaux défis de la reconnaissance
d’image : l’incapacité à discerner précisément quels éléments de l’image
influencent la réaction de l’IA. Nous y reviendrons.
Cette expérience démontre à quel point l’évaluation automatique de la
personnalité par une IA peut être influencée par les apparences et
l’environnement observés, risquant ainsi de renforcer les stéréotypes existants.
Le danger majeur est que si ces technologies gagnent en popularité, elles
pourraient rigidifier et amplifier les stéréotypes actuels, défavorisant certains
candidats pour des motifs sans rapport avec leurs compétences ou aptitudes20. Il
existe des dizaines d’exemples de ce type qui permettent de bien comprendre les
risques des biais dans les IA. Et ces problèmes peuvent toucher tous les secteurs,
y compris les plus sensibles comme ceux de la justice ou de la médecine…
Dans le domaine judiciaire, un exemple bien connu est le cas de COMPAS, un
algorithme qui a fait l’objet de nombreuses controverses. COMPAS est un
programme informatique développé aux États-Unis qui permet d’évaluer le
risque de récidive des délinquants. En d’autres termes, c’est une IA conçue pour
prédire la probabilité qu’un individu commette à nouveau un crime. L’objectif
est que les tribunaux puissent utiliser les prédictions de COMPAS pour
déterminer des éléments cruciaux tels que le montant de la caution, la durée des
peines et la date de libération sous probation. Cependant, une étude réalisée en
2016 a mis en lumière des préoccupations majeures concernant l’équité de cet
outil (Walsh, 2018). Selon cette étude, les prévenus noirs étaient bien plus
susceptibles que les prévenus blancs d’être incorrectement évalués comme
présentant un risque élevé de récidive. Inversement, les prévenus blancs avaient
une plus grande chance d’être incorrectement jugés comme présentant un faible
risque. En se fondant sur ces prédictions biaisées, le système judiciaire pourrait
donc pénaliser ou favoriser injustement certains individus en fonction de leur
appartenance ethnique. Ces préoccupations ont été largement médiatisées par
l’ONG ProPublica qui a, après une enquête approfondie, qualifié COMPAS de
« discriminatoire » envers certaines populations21. Il convient de noter que la
tâche de ProPublica n’a pas été facile. En effet, l’éditeur du logiciel, la société
Northpointe, n’a pas souhaité collaborer avec eux. C’est grâce à un travail
considérable de rétro-ingénierie que l’ONG a pu éclairer le fonctionnement de
l’algorithme et révéler ses failles (Meneceur, 2020). Ces cas illustrent la
nécessité d’une transparence accrue et d’une surveillance étroite des systèmes
d’IA, en particulier lorsqu’ils ont un impact direct sur la vie des gens.
Alors que les biais algorithmiques des IA peuvent impacter nos vies
socialement ou juridiquement, ils posent des risques encore plus graves dans le
secteur médical, où les erreurs peuvent devenir une question de vie ou de mort.
Plus tôt dans ce livre, nous avons mis en avant les avancées incroyables de l’IA
dans le secteur médical. Grâce à la reconnaissance d’image, les diagnostics
médicaux se sont grandement améliorés. Ces nouveaux outils sont une aide
précieuse pour les médecins lorsqu’il s’agit de poser des diagnostics et
l’efficacité de ces IA est indéniable. Certaines études montrent d’ailleurs qu’elles
surpassent la capacité de poser des diagnostics des médecins, avec un taux de
réussite impressionnant de 95 % pour l’IA contre 89 % pour les professionnels
de santé22. Il existe aujourd’hui un grand nombre d’applications comme iSkin,
Skinvision, SkinApp, ou encore UMSkinCheck qui exploitent la reconnaissance
d’image pour aider à diagnostiquer les maladies de la peau.
Néanmoins, malgré ces performances impressionnantes, l’IA est seulement
aussi bonne que les données sur lesquelles elle est formée. En effet, ces IA vont
analyser des milliers d’images de peau existantes pour apprendre à quoi
ressemble une peau saine ou malsaine, puis ajuster leur algorithme pour poser
des diagnostics en fonction de ces ensembles de données. Lorsque ces données
sont biaisées ou non représentatives, les conséquences peuvent être tragiques, en
particulier dans un domaine aussi sensible que la médecine. Une étude publiée
dans le Lancet Digital Health a révélé une sous-représentation alarmante des
peaux foncées dans les jeux de données couramment utilisés pour les IA
spécialisées dans la détection des cancers de la peau (Wen et al., 2022). Ils
montrent que, parmi les 100 000 photos utilisées pour entraîner ces IA, seules 2
436 indiquaient la couleur de la peau, parmi lesquelles 10 étaient classifiées
comme étant de couleur brune et une seule comme étant de couleur noire (Davis,
2021). Or cette sous-représentation conduit inévitablement à des diagnostics
erronés ou manqués pour les personnes ayant la peau de couleur foncée.
Le Dr Adamson, chercheur et spécialiste de ces problématiques, souligne que
« tout est vu à travers une lentille blanche »23. Ses travaux visent à faire
progresser l’équité en matière de santé et son intérêt pour le sujet s’est intensifié
après avoir rencontré Avery Smith, endeuillé par la perte de sa femme, une
femme noire, des suites d’un cancer de la peau. Le Dr Adamson a alors pris
conscience que, si sophistiquées soient-elles, les IA peuvent être gravement
biaisées. La tragédie est que Mme Smith a été diagnostiquée trop tard, car les
outils actuels n’étaient pas en capacité d’identifier son cancer à cause de la
couleur de sa peau. Son cas n’est malheureusement pas isolé. Comme le souligne
le Dr Adamson : « Si vous n’entraînez pas l’algorithme avec un ensemble
diversifié d’images, alors cet algorithme ne fonctionnera pas pour un public qui
est diversifié […]. Il y a donc un risque que les personnes ayant la peau de
couleur plus foncée passent à travers les mailles du filet. » Les patients noirs
atteints de cancer sont ainsi beaucoup plus susceptibles d’être diagnostiqués à
des stades plus avancées. Or la détection précoce est capitale pour augmenter les
chances de survie à la maladie. Cette situation conduit à une disparité flagrante
dans les taux de survie en fonction de la couleur de la peau : 90 % pour les
patients blancs, comparativement à 66 % pour les patients noirs.
L’utilisation des IA pour effectuer des prédictions peut engendrer des
conséquences dramatiques à cause des biais présents dans les données
d’entraînement. Ces biais peuvent fausser non seulement les diagnostics
médicaux, mais aussi orienter de manière erronée les choix et les conseils
prodigués par les systèmes automatisés. Par exemple, une étude menée par la
Carnegie Mellon University en 2015 a démontré que les publicités de Google
proposaient davantage de postes bien rémunérés aux hommes qu’aux femmes
(Gibbs, 2015). De tels biais ont des répercussions significatives sur la société et
l’égalité hommes-femmes.
Comme on peut le voir, les exemples de biais dans les IA ne manquent pas.
Afin de mieux cerner et comprendre ces biais, mais aussi mieux savoir comment
y faire face, il existe plusieurs typologies de biais. D’après ces classifications, on
distingue généralement trois types de biais (Brown, 2020) :
• Les biais d’interactions (interaction biais) : Ces biais surviennent lorsque les
données utilisées pour entraîner un algorithme ne reflètent pas adéquatement
la diversité de la population réelle. L’exemple du chatbot Tay de Microsoft
est une bonne illustration de ce biais, puisque le comportement de Tay s’est
adapté en fonction des interactions non représentatives de la population
qu’elle a eues avec certains utilisateurs.
• Les biais latents (latent biais) : Ce type de biais se produit lorsque les
algorithmes reproduisent des stéréotypes ou des préjugés existants dans la
société en raison de données historiques porteuses de ces biais. C’est le cas
de l’algorithme COMPAS ou de l’algorithme d’analyse de CV d’Amazon par
exemple.
• Les biais de sélection (selection biais) : Ce type de biais se produit lorsque
les exemples d’un ensemble de données sont choisis d’une manière qui ne
reflète pas leur distribution dans le monde réel. C’est le cas de l’IA
développée pour détecter les cancers de la peau. Un autre cas notable de ce
type de biais est survenu en mars 2018, lorsqu’un piéton a été heurté par une
voiture autonome d’Uber24. Bien que le véhicule ait détecté la présence du
piéton, il n’a pas ralenti. Le logiciel n’avait pas été conçu pour identifier un
piéton traversant la route en dehors d’un passage clouté, car les images
utilisées pour son entraînement ne contenaient quasiment que des images de
piétons respectant les passages dédiés. Cela a mis en évidence un grave
problème de biais de sélection.
En comprenant ces biais, on peut non seulement mieux appréhender les limites
des IA, mais également travailler à les rendre plus justes et précises. Fort
heureusement, des avancées sont déjà en cours dans ce domaine. Par exemple,
des outils tels qu’OpenScale et AI Fairness 360, conçus par IBM Watson, ont été
spécifiquement développés pour quantifier, identifier et éliminer ces biais25.
Néanmoins, il est essentiel de noter que cette branche de recherche est encore en
pleine effervescence et continue d’évoluer.

3.2. Garbage in – Garbage out


Ce que l’on peut constater avec les IA biaisées c’est que la source du problème
n’est pas tant les algorithmes eux-mêmes, mais plutôt les données fournies pour
leur entraînement. Si ces données sont biaisées ou ne correspondent pas à ce que
l’on veut pour la société de demain, elles entraîneront inévitablement des
conséquences indésirables. En se basant sur un vaste ensemble de données issues
de notre quotidien, qu’il s’agisse des réseaux sociaux ou du milieu professionnel,
il est probable qu’elles reflètent, d’une manière ou d’une autre, les problèmes
que l’on rencontre actuellement dans notre société comme les inégalités, les
injustices, le racisme ou le sexisme. L’algorithme, apprenant directement de ces
données, risque de perpétuer ces biais, ce qui constitue un problème majeur.
Par exemple, prenons le cas d’une IA qui serait dédiée à la sélection des
candidats pour des postes universitaires basée sur l’analyse du profil des
professeurs actuels. Si les données montrent que la majorité des professeurs sont
issus d’écoles d’élite, l’IA pourrait alors favoriser les candidats de ces écoles,
excluant ainsi de nombreux candidats talentueux d’institutions moins
prestigieuses. Cela accentuerait l’inégalité d’accès aux postes prestigieux. De la
même façon, imaginons une IA destinée à conseiller les étudiants sur les filières
d’études et les métiers à envisager après le lycée. Si cette IA est principalement
formée à partir de données historiques, elle pourrait suggérer aux jeunes femmes
de s’orienter vers des métiers traditionnellement féminins, comme le métier
d’infirmière ou d’assistante maternelle, et aux jeunes hommes vers des métiers
traditionnellement masculins, comme le métier d’ingénieur ou de charpentier.
Cette IA, au lieu de promouvoir la diversité des métiers et d’encourager les
jeunes à explorer des carrières selon leurs intérêts et capacités, risque de les
cantonner dans des rôles genrés. Dans notre société, nous avons justement envie
de lutter contre les inégalités et favoriser un certain ascenseur social. De telles IA
iraient complétement à l’encontre de cet objectif et au contraire feraient des
recommandations moralement biaisées qui enfermeraient les individus dans des
stéréotypes.
Ainsi, les modèles d’IA reflètent inévitablement les biais présents dans les
données utilisées pour leur entraînement. Ces données, souvent issues de notre
vie quotidienne, sont le miroir de nos faiblesses, de nos imperfections, de nos
préjugés, ou de nos dysfonctionnements sociétaux. Et nous ne souhaitons
certainement pas accentuer ni automatiser ces failles avec l’IA. En introduisant
des données inappropriées, on obtiendra inévitablement des décisions
inappropriées. C’est le concept de Garbage in – Garbage out. Des données
absurdes, biaisées ou de mauvaise qualité en entrée fourniront forcément en
sortie des résultats absurdes, biaisés ou de mauvaise qualité. Ce concept trouve
ses racines dans les premières heures de l’informatique, où l’on affirmait que les
machines, si avancées soient-elles, dépendent strictement des instructions et des
données fournies. Elles ne possèdent pas, contrairement aux humains, de
capacité de jugement ou d’interprétation susceptible d’influencer les résultats.
Ceci est encore plus vrai avec l’essor du machine learning et du Big Data. En
effet, l’apprentissage machine est grandement dépendant des données qu’on lui
fournit, faisant que la qualité de la prédiction est étroitement liée à la qualité des
données utilisées pour l’entraînement. Reprenons notre métaphore de la recette
de cuisine. Plus les ingrédients utilisés seront de bonne qualité et dans les
quantités appropriées, plus grandes seront mes chances de réussir ma recette. Si
j’utilise des ingrédients périmés, de mauvaise qualité ou en surdosage, cela
risque d’entraîner des conséquences néfastes sur les convives qui vont manger
mon plat. Développer une IA responsable ce n’est pas seulement développer des
algorithmes responsables mais c’est aussi savoir sourcer de la donnée de qualité.
Lorsque l’on construit des algorithmes entraînés sur beaucoup de données, il faut
donc penser à ces conséquences non désirées et non désirables et à se
questionner sur la qualité des données utilisées.

3.3. C’est quoi une donnée de qualité ?


Avec cette notion de Garbage in – Garbage out, il est donc primordial de
s’assurer d’avoir des données de qualité pour entraîner des algorithmes. Mais
définir ce que l’on entend par « donnée de qualité », est complexe, car cette
notion englobe plusieurs aspects.
Le premier aspect, nous l’avons déjà abordé, concerne la question des biais de
société et des biais moraux éventuellement présents dans les données. Comme
nous l’avons vu, la surreprésentation des hommes dans les postes à
responsabilité ou l’abondance de messages haineux sur les réseaux sociaux sont
des exemples de biais qui risquent d’influencer les modèles que nous entraînons.
De tels modèles pourraient alors non seulement reproduire, mais aussi amplifier
ces biais, ce qui n’est pas désirable. Un moyen pour y faire face et s’assurer
d’avoir des données exemptes de ces biais est d’adopter une démarche inclusive
dès la phase de collecte des données. Cela pourrait impliquer la consultation
d’experts en sciences sociales, en éthique et en droits de l’homme pour évaluer
les dimensions sociales et éthiques des données recueillies. De plus, des
méthodes de « débiaisage » des données peuvent être appliquées pour corriger
les déséquilibres ou les préjugés latents. Des algorithmes de pondération, par
exemple, peuvent être utilisés pour équilibrer la représentativité des différents
groupes dans l’ensemble de données. Enfin, il est crucial de réaliser des audits
réguliers de l’ensemble de données pour identifier et corriger tout biais qui
pourrait surgir au fil du temps.
Le deuxième aspect à considérer est l’exhaustivité des données. Par exemple,
une entreprise qui analyse des données clients doit s’interroger : a-t-elle accès à
des données complètes pour l’ensemble de sa clientèle ? En effet, la présence de
valeurs manquantes peut sérieusement biaiser la compréhension et l’analyse.
Mais il arrive qu’il ne soit pas possible de récupérer l’exhaustivité de certaines
données. Comment dès lors pouvons-nous gérer ces valeurs manquantes ? Une
première option consiste à retirer les observations pour lesquelles il y a
effectivement des valeurs manquantes, mais cela peut entraîner des problèmes
d’échantillonnage si ces absences sont fréquentes et non aléatoires. Par exemple,
si des valeurs manquent uniquement pour un certain type de client, comme des
personnes méfiantes qui ne souhaitent pas partager certaines informations,
exclure ces données nous conduirait à éliminer une catégorie de clients
pertinente pour l’analyse. Si cette présence de valeurs manquantes est donc non
aléatoire, comme dans notre exemple, on peut tout de même trouver un autre
moyen d’y remédier, à savoir en mettant des valeurs moyennes ou en utilisant
d’autres approches statistiques appropriées.
Avec cette question d’exhaustivité se pose également la question de la
représentativité des données. Si par exemple je souhaite entraîner un algorithme
à différencier un chat d’un chien sur une photo, j’ai intérêt à avoir le même
nombre de chats et de chiens dans ma base de données d’entraînement. De façon
très simplifié et schématique, si j’utilise deux fois plus de photos de chiens que
de photos de chats pour entraîner mon algorithme, celui-ci risque de favoriser la
réponse chien dans sa prévision, quelle que soit la photo analysée.
Le troisième aspect important à considérer pour avoir des données de qualité
sur lesquelles un modèle de machine learning sera entraîné est la question de
l’actualisation des données. Mes données sont-elles à jour ? Prenons l’exemple
d’un algorithme conçu pour prédire les tendances d’achat en ligne : si les
données sur les préférences des clients ne sont pas actualisées, les
recommandations du système risquent d’être inexactes ou obsolètes. Il est donc
crucial de mettre à jour régulièrement les données pour garantir la fiabilité des
prédictions de l’algorithme.
Enfin, un autre problème majeur en matière de qualité des données concerne
évidemment les erreurs. Celles-ci sont très fréquentes dans un contexte de
traitement manuel des données, tel que le remplissage de formulaires à la main
ou la saisie manuelle d’informations dans un logiciel. Il faut faire preuve d’une
vigilance accrue dans ces cas. L’existence de doublons, par exemple, peut
constituer un réel problème. Si ces données désormais erronées à cause des
doublons sont utilisées pour entraîner un algorithme, un poids excessif sera
attribué à un élément qui ne le mérite pas, faussant ainsi les résultats. C’est
d’ailleurs la source principale de mauvaise qualité des données, identifiée dans
différentes études26 (voir Figure 30).
Figure 30. Facteurs principaux de la mauvaise qualité des données selon une étude Statista de 2015

Source : autrice, adaptée de Statista. https://www.statista.com/statistics/518069/north-america-survey-


enterprise-poor-data-quality-reasons/

Pour atténuer les risques liés à une mauvaise qualité des données et échapper
au piège du Garbage in – Garbage out, une approche rigoureuse en matière de
gestion des données est essentielle. Le point de départ est souvent le nettoyage
des données, qui implique l’élimination de toute information inexacte ou
incomplète. À l’instar d’un cuisinier qui lave ses légumes et écarte les
ingrédients périmés avant de commencer à cuisiner, il est essentiel de travailler
avec un ensemble de données propres pour entraîner des modèles
d’apprentissage automatique fiables. Cependant, avoir des données propres n’est
que la moitié du chemin. La diversification des sources est également cruciale
pour garantir un échantillon véritablement représentatif. Pensez à un régime
alimentaire : si vous ne mangez que des pommes, vous manquerez de nombreux
nutriments. De la même manière, il faut des données variées pour obtenir une
vision complète du problème à traiter. De cette façon, on peut minimiser les biais
inhérents et rendre les prédictions du modèle plus robustes et applicables à une
population plus large.
Mais la rigueur ne s’arrête pas à la collecte et au nettoyage des données ; elle
doit également s’étendre à leur validation et à leur vérification continues. Il est
impératif de tester régulièrement la qualité des données et les performances des
modèles. C’est un peu comme goûter un plat quand on le cuisine. Un bon chef
ajuste les épices et la cuisson en goûtant sa préparation à plusieurs reprises. De
même, il est important de tester régulièrement la qualité des données et la
performance des modèles pour apporter les ajustements nécessaires. Ce n’est pas
un acte ponctuel mais plutôt une pratique continue, intégrée dans le processus
global de gestion des données, qui vise à vérifier qu’elles vont produire le
résultat escompté. Ceci permet de s’assurer que le résultat final – en
l’occurrence, les conclusions ou les prédictions faites à partir de ces données –
soit aussi fiable et utile que possible. Cette vérification peut inclure des analyses
de sensibilité, des tests d’exactitude, ou d’autres mesures d’évaluation
pertinentes.
Précisons également que la qualité des données n’est pas une responsabilité qui
incombe uniquement aux analystes ou à l’équipe en charge des données. Elle est
l’affaire de toute l’organisation. Il est donc crucial d’éduquer et de sensibiliser
tous ceux qui interagissent avec des données. Des formations régulières et des
ateliers de sensibilisation peuvent s’avérer très utiles à cet égard. Enfin, la
diversité au sein des équipes qui manipulent et analysent les données ne doit pas
être négligée. Intégrer diverses perspectives peut en effet contribuer à identifier
et à rectifier des biais potentiels, ce qui finalement améliore la qualité des
données. La diversité des équipes est donc non seulement un objectif social
louable, mais aussi un moyen efficace d’accroître la rigueur et la fiabilité des
analyses de données.

3.4. Les concepts de corrélation fallacieuse et d’endogénéité en IA


Une fois la question de la qualité des données prise en compte, l’IA est très
intéressante pour repérer des corrélations dans ces vastes ensembles de données.
Par exemple, elle peut permettre de détecter un lien entre les habitudes
alimentaires et la santé cardiaque en analysant les régimes et les dossiers
médicaux de milliers de personnes. Cette détection de motifs dans de grands
volumes de données est l’une des forces de l’IA, et comme nous venons de le
voir, la qualité et la complétude de ces données sont essentielles pour assurer
l’exactitude de ces corrélations. Toutefois, disposer de données de qualité n’est
pas suffisant pour éviter tous les biais. En effet, il est également impératif de
rester vigilant quant aux implications des corrélations identifiées. Pour cela, il
faut distinguer une corrélation valide de ce qu’on l’on appelle « une corrélation
fallacieuse ». Une corrélation fallacieuse survient lorsqu’un modèle d’IA établit
une relation apparente entre deux variables qui, en réalité, n’est ni causale ni
pertinente, ou qui pourrait être influencée par d’autres facteurs non pris en
compte. Par exemple, un modèle d’IA pourrait trouver qu’il y a une corrélation
entre le nombre de noyades et la consommation de glaces, et faire des
recommandations sur cette base. Sans une analyse plus approfondie, on pourrait
conclure à tort que manger de la glace augmente le risque de noyade. En réalité,
un troisième facteur, la température élevée en été par exemple, influence à la fois
la consommation de glaces et le nombre de noyades, ce qui expliquerait la
corrélation entre les deux, sans qu’il y ait pour autant de lien causal entre eux.
Ce genre de relation trompeuse peut conduire à des interprétations erronées et il
est donc crucial de rester vigilant lors de l’analyse des corrélations établies par
des modèles d’IA.
Pour mieux illustrer ce principe de corrélation fallacieuse, prenons un exemple
réel partagé par deux chercheurs de Microsoft lors d’un débat au NeurIPS, une
conférence internationale sur l’apprentissage automatique et les neurosciences
computationnelles27. Les deux chercheurs évoquent des problèmes liés aux
analyses d’un réseau de neurones conçu pour identifier les patients à haut risque
de pneumonie. À première vue, le modèle semblait performant, mais il avait
appris une relation étrange : il classait systématiquement les patients
asthmatiques comme étant à faible risque. Cela semblait contre-intuitif, car la
pneumonie est une maladie pulmonaire et les asthmatiques devraient
logiquement y être plus sensibles. Un examen plus approfondi a révélé que ces
patients étaient classés comme à faible risque non pas à cause de leur asthme,
mais parce qu’ils avaient tendance à consulter un médecin plus rapidement que
les autres28. Étant pleinement conscients de leur vulnérabilité pulmonaire, les
individus atteints d’asthme tendent à consulter un médecin rapidement, même en
présence de symptômes légers. À l’opposé, ceux qui n’ont pas d’antécédents
d’asthme ont tendance à repousser une consultation médicale jusqu’à ce que leur
état de santé se détériore au point de nécessiter une visite médicale. Le modèle
n’avait pas appris une vérité médicale, mais avait plutôt capturé un biais
comportemental. Ce phénomène a pour conséquence grave que le modèle, ayant
déterminé que l’asthme était un critère pour évaluer un patient comme étant à
faible risque de pneumonie, pourrait omettre de considérer les personnes
asthmatiques comme étant à risque. Or, dans la réalité médicale, elles devraient
bien être identifiées comme telles.
En statistiques, il existe des centaines d’exemples de corrélations fallacieuses
de ce type. Si vous cherchez son terme anglais spurious correlation sur Internet
vous trouverez une panoplie d’exemples absurdes de corrélations fallacieuses,
qui permettent de bien comprendre qu’il ne faut pas confondre corrélation et
causalité. Par exemple, une forte corrélation a été observée entre le nombre de
personnes qui se sont noyées en tombant dans une piscine et le nombre de films
dans lesquels l’acteur Nicolas Cage a joué (voir Figure 31)29. Est-ce que cela
signifie pour autant que les deux évènements sont liés par une relation de cause à
effet ? Évidemment que non. Néanmoins, une intelligence artificielle qui base
ses prédictions sur de telles corrélations aurait tendance à considérer que ces
variables sont liées, ce qui pourrait avoir d’importantes répercussions sur la
qualité de ses prédictions.
Figure 31. Exemple de corrélation fallacieuse entre le nombre de personnes qui se noient dans une piscine
et le nombre de films dans lesquels Nicolas Cage apparaît

Source : autrice, adaptée de http://www.tylervigen.com/spurious-correlations


Un autre exemple bien connu de corrélation fallacieuse dans le domaine de
l’intelligence artificielle est celui de l’utilisation d’une IA de reconnaissance
d’image qui permettait de distinguer des photos de chiens et de loups (Ribeiro et
al., 2016). Cette IA fonctionnait assez bien et faisait de bonnes prédictions. Tout
laissait à penser qu’elle avait bien compris ce qui différenciait un chien d’un
loup. Et pourtant on s’est rendu compte que ce n’était pas le cas. En réalité, l’IA
ne s’intéressait pas du tout aux caractéristiques des deux animaux pour les
différencier. Cette IA analysait en fait le fond des images pour différencier les
deux. En effet, souvent pour les loups, il y a de la neige en fond, alors que pour
les chiens plutôt de la pelouse. Ainsi, l’algorithme se basait sur l’environnement
capturé dans la photo, et non sur les animaux eux-mêmes, pour effectuer sa
classification. Ici aussi, nous sommes en plein dans le piège de la corrélation
fallacieuse.
Ces exemples permettent de mieux prendre conscience à quel point et pourquoi
il est crucial de comprendre les mécanismes derrière les prédictions d’un modèle
ainsi que l’origine des corrélations et des liens établis. Faute de quoi, cela
pourrait non seulement impacter négativement les performances du modèle, mais
aussi introduire des biais et des effets indésirables. Par exemple, le cas de la
reconnaissance d’image pour différencier le loup du chien est tout à fait similaire
à celui de l’évaluation par l’IA de la personnalité d’un candidat à partir de vidéos
de candidature, que nous avons abordé précédemment. Dans les deux cas, l’IA a
basé sa prédiction sur des éléments du décor (comme l’absence ou la présence
d’une bibliothèque), ce qui n’était pas l’objectif initial. Ceci peut avoir des
répercussions néfastes, notamment en impactant négativement l’accès à l’emploi
pour de mauvaises raisons et en renforçant les stéréotypes. Cette tâche devient
toutefois plus ardue lorsque les modèles sont excessivement complexes, en
raison du phénomène de « boîte noire » que nous avons introduit précédemment.
On se rend donc bien compte à quel point utiliser des boîtes noires pour guider la
prise de décision peut être dangereux et problématique.
Ces erreurs sont étroitement liées à un autre concept souvent négligé en IA :
l’« endogénéité ». Ce terme décrit la situation dans laquelle les prédictions d’un
modèle influencent les résultats futurs, ce qui peut créer un biais dans les
données qui alimentent ce même modèle. Supposez que nous ayons un modèle
d’IA destiné à identifier les étudiants à risque de décrochage scolaire. Si les
enseignants, sur la base de ces prédictions, concentrent davantage leurs efforts
sur les élèves considérés comme moins susceptibles de décrocher, cela pourrait
en réalité augmenter la probabilité que les étudiants « à risque » finissent par
effectivement abandonner leurs études. Les futures versions de ce modèle,
nourries par ces nouvelles données, pourraient donc renforcer cette tendance,
créant ainsi une boucle de rétroaction dangereuse.
Or, aujourd’hui, l’endogénéité est souvent négligée dans la communauté de
chercheurs en machine learning (De Bruyn, 2020), en partie parce que beaucoup
de tâches prédictives qui intéressent les chercheurs ne sont pas soumises à ce que
l’on appelle des « boucles de rétroaction de la décision ». Par exemple, prédire la
présence d’un mélanome sur une image médicale n’influence pas la probabilité
future de développer un mélanome. Le diagnostic est simplement un constat, et il
n’y a pas de rétroaction entre le résultat et les données futures. Cependant, ce
n’est pas le cas d’autres contextes comme celui de la justice, de l’éducation ou
du marketing par exemple, pour lesquels les prédictions peuvent effectivement
influencer les résultats futurs, avec une boucle du type « données → prédictions
→ décision → données ». Par exemple, si une entreprise utilise un algorithme
pour prédire quel client est le plus susceptible de faire un achat, et que cette
prédiction guide ensuite la distribution de catalogues, nous entrons dans une
boucle de rétroaction de la décision. Ceci peut entraîner des prophéties
autoréalisatrices où le modèle finit par se concentrer sur de moins en moins de
clients, optimisant les gains à court terme mais impactant négativement les
profits à long terme.
Considérons un autre exemple. Une banque peut chercher à concevoir un
algorithme d’octroi de crédit qui prédit si un individu représente un risque
financier élevé, et sur cette base, décider de lui refuser un prêt. Les décisions
engendrées par ces prédictions ont clairement un impact sur le monde réel, qui se
reflète dans les nouvelles données collectées. Par exemple, si l’algorithme refuse
des prêts à ceux qu’il identifie comme étant à haut risque, ces individus se voient
privés de l’opportunité d’améliorer leur cote de crédit et leur situation. Ici
intervient le concept d’endogénéité : si le modèle affecte la réalité qu’il est censé
évaluer, il crée un cercle vicieux. Dans cet exemple, les actions induites par le
modèle prédictif (le refus de prêts) ont une influence sur les nouvelles données
collectées (les cotes de crédit des personnes concernées). Ces nouvelles données
deviennent donc endogènes, c’est-à-dire qu’elles sont influencées par le modèle
lui-même. Bien que ce phénomène soit reconnu en économétrie et dans d’autres
domaines qui étudient les systèmes complexes, il reçoit pourtant peu d’attention
dans le monde de l’IA. Cela est d’autant plus préoccupant lorsque ces
algorithmes sont utilisés dans des contextes où les décisions basées sur les
prédictions peuvent avoir des implications à long terme, qu’elles soient
financières, éthiques ou sociétales.

4. UN RISQUE D’OUBLI DE LA VIE PRIVÉE


Entraîner de très gros modèles sur des bases de données conséquentes ne pose
pas seulement question sur leur qualité et les biais possibles liés au
fonctionnement des IA. Cela soulève aussi des préoccupations évidentes sur le
respect de la vie privée. En effet, les données utilisées sont souvent des données
personnelles sur lesquelles nous nous devons d’être vigilants. Comme le dit
Toby Walsh (2018, p. 151), « Big Brother fonctionne beaucoup mieux avec des
algorithmes intelligents »30. L’existence d’algorithmes sophistiqués entraînés sur
une multitude de données personnelles invite à s’interroger sur la manière dont
la vie privée est véritablement respectée.

4.1. Scandales liés à des violations de vie privée


La grande majorité des données utilisées pour entraîner des algorithmes
concernent les personnes et leurs actions. C’est le cas par exemple des
algorithmes de Facebook qui analysent les photos que vous postez ou de celui de
YouTube qui exploite vos données d’utilisation et de visionnage pour vous
proposer des recommandations pertinentes. Mais lorsque l’on peut croiser un
grand nombre de données sur un même individu, suivre ce qu’il fait et ce qu’il
publie, cette question de la vie privée devient particulièrement problématique.
Les données que nous générons en ligne ont une très grande valeur et sont très
convoitées par les entreprises.
Ceci a généré divers comportements éthiquement discutables de la part de
certaines entreprises, conduisant parfois à certains scandales. Vous allez le voir,
cet enjeu de vie privée n’est pas nouveau et les scandales à ce sujet ne datent pas
d’hier. Par exemple, si l’on remonte à 2014, ING, une ancienne banque
néerlandaise, avait alors proposé de vendre les données de paiement de ses
clients à d’autres entreprises (Stroobants, 2014). Comme vous le savez, les
banques détiennent une mine de données sur les achats et les paiements
effectués, que ce soit en ligne ou en magasin, et donc également sur les
habitudes de consommation. Elles peuvent déterminer ce que les gens ont
acheté, à quel montant, et quelles sont leurs tendances de consommation. À la
suite de cette proposition d’ING, de vives réactions ont émergé, non seulement
de la part de ses clients, mais aussi de diverses parties prenantes. Même des
responsables politiques se sont saisis de l’affaire. Le président de la Banque
nationale néerlandaise, notamment, a publié une communication indiquant qu’il
n’était pas du tout en faveur de cette initiative et ING a finalement dû
abandonner le projet.
On trouve également de façon assez récurrente des scandales qui touchent des
entreprises comme Facebook (désormais renommée Meta) par exemple, pour qui
l’exploitation des données personnelles fait partie intégrante du business model.
Selon un rapport publié par le New York Times en 2018, Facebook a donné accès
aux données privées de ses utilisateurs à d’autres grandes entreprises de la
Silicon Valley (Dance et al., 2018). Par exemple, le moteur de recherche Bing de
Microsoft avait accès à la liste complète de nos amis Facebook sans notre
consentement. Facebook a également permis à Netflix et Spotify de consulter
nos messages privés. Ces entreprises faisaient partie des plus de 150 avec
lesquelles Facebook a partagé des informations dans le cadre de partenariats de
partage de données.
Enfin le scandale majeur en matière de violation de la vie privée qui a fait
beaucoup de bruit en 2018 est celui de Cambridge Analytica (Confessore, 2018).
Cambridge Analytica est une société spécialisée dans le conseil en
communication et dans l’analyse de données. Cette dernière a exploité les
informations de millions d’utilisateurs de Facebook à leur insu pour favoriser la
campagne électorale de Donald Trump. Le véritable problème dans cette affaire
n’est pas tant que la société ait exploré des profils Facebook publics et collecté
des données accessibles pour faire ses publicités de promotion de la campagne
de Donald Trump. En soi, cela ne constitue pas une violation de la vie privée,
puisque les utilisateurs avaient rendu ces informations publiques. Le problème
c’est que Cambridge Analytica avait mis en place des stratégies de récolte de
données bien plus vicieuses pour obtenir des données qui n’étaient pas
publiques. Peut-être que vous avez déjà vu passer sur Facebook ce type de quiz
en apparence anodins qui proposent de vous divertir, comme « Quel personnage
Disney êtes-vous ? » ou « À quelle maison de Poudlard appartenez-vous ? ». En
réalité, Cambridge Analytica avait conçu ce genre de quiz, non pas pour vous
offrir un simple divertissement, ni même pour s’intéresser à vos réponses, qui en
elles-mêmes ne sont pas intéressantes. Que vous préfériez la Belle au bois
dormant à la fée Clochette, ou le bleu au rouge, importe peu. Ce qui est
véritablement intéressant, c’est que pour démarrer le quiz, vous deviez accepter
des conditions d’utilisation qui évidemment étaient très longues et difficiles à
lire. Et dans ces conditions bien souvent, on vous demandait de partager toutes
vos données, y compris celles qui ne sont pas publiques. Ainsi, les utilisateurs
qui ont participé à ces quiz ou à des jeux similaires ont consenti à fournir un
accès à leurs données, sans réaliser que celles-ci seraient ultérieurement
exploitées par Cambridge Analytica pour la campagne de Donald Trump31.
Ce scandale a fait couler beaucoup d’encre à l’époque, notamment en raison
des répercussions politiques en jeu. En effet, avec ces données personnelles
récupérées, Cambrige Analytica a pu déployer des publicités ciblées pour
influencer des événements majeurs comme le Brexit ou l’élection de Donald
Trump. La société a exploité un vaste ensemble de données à l’aide d’un logiciel
nommé Ripon, qui s’appuie sur des algorithmes d’intelligence artificielle pour
créer des profils psychologiques. Ces profils ont ensuite été utilisés pour affiner
le ciblage des publicités. Ce type de scandale a contribué à mettre en lumière
l’exploitation abusive des données personnelles. Il a aussi souligné l’importance
de réfléchir à des moyens pour protéger la vie privée afin d’éviter que ces
données ne soient surexploitées, que ce soit à des fins de surveillance, à des fins
commerciales ou même politiques.

4.2. Le concept de vie privée


Les différents scandales concernant l’exploitation abusive de nos données
personnelles nous incitent à réfléchir de manière critique à ce que nous
concevons comme relevant de la « vie privée » ou non. En effet, il apparaît que
ce concept n’est pas défini ou compris de la même manière par tous, ce qui
ajoute une couche de complexité au débat.
Pour commencer, précisons que la vie privée est un concept qui a un
fondement philosophique très fort. L’un des premiers intellectuels à aborder ce
sujet fut Aristote pendant l’Antiquité. Le philosophe faisait la distinction entre
deux sphères de vie dans la société. D’une part, la vie publique (la polis en grec),
qui s’inscrit dans le domaine public et implique des interactions avec autrui ; et
d’autre part, la vie privée ou domestique (l’oikos en grec), qui relève de la sphère
personnelle (Roy, 1999). L’existence même de cette sphère plus privée, sous-
entend un certain droit au retrait et à s’isoler pour protéger son bien-être. Elle
implique le droit à « être laissé tranquille » et à maintenir un certain jardin
secret. Ainsi, au sein d’une société, il existe non seulement une vie publique faite
d’interactions avec les autres, mais également un droit immuable que nous
possédons tous de nous retirer de cette sphère publique et de disposer d’un
espace personnel dans lequel nous pouvons nous mettre en retrait. Ce concept va
de pair avec le concept de propriété privée, qui désigne le fait de posséder son
chez soi, dans lequel personne ne peut rentrer. Ce principe est fondamental pour
la structuration de notre société actuelle. Et ce qu’Aristote suggère, c’est que
pour le bon fonctionnement d’une société, il est primordial de maintenir une
délimitation claire entre ces deux sphères de vie afin de garantir un équilibre
sain. Préserver une part de vie privée est donc essentiel au bien-être collectif,
tout comme un bon sommeil est indispensable à la qualité de notre journée.
Néanmoins, le tracé de cette limite entre les deux vies peut être assez subjectif.
Par exemple selon les cultures ou les croyances, la vie privée va être plus ou
moins valorisée. Une grande distinction à ce sujet est souvent faite entre les pays
collectivistes et les pays plus individualistes. Dans les nations collectivistes, le
principe de sécurité collective par exemple va souvent primer sur la notion de
vie privée individuelle. C’est pourquoi une personne issue de la culture chinoise,
par exemple, pourrait être moins gênée par la surveillance constante des caméras
de rue si cela contribue à une meilleure sécurité collective. Ce phénomène
explique en partie pourquoi les villes chinoises détiennent des records mondiaux
en matière de caméras de surveillance par habitant, avec notamment la ville de
Chongqing qui se trouve en tête de ce classement, avec une caméra pour
seulement six habitants32 ! À l’opposé, dans les sociétés plus individualistes, les
libertés individuelles auront tendance à primer sur des enjeux plus collectifs
comme celui de la sécurité pour tous. D’ailleurs ce débat constant entre sécurité
et vie privée illustre la difficulté réelle de trouver un équilibre qui convient à tout
le monde. Ainsi, il existe des conceptions bien différentes sur la définition et
l’importance à accorder à la vie privée.
Néanmoins, au-delà de ces variations, voici quelques éléments clés qui
permettent de cerner plus précisément ce que l’on désigne par « vie privée ». En
règle générale, on considère comme relevant de la vie privée tout ce qui
concerne ce qu’un individu fait, pense et croit. L’individu doit avoir la liberté de
décider s’il souhaite partager ces éléments dans la sphère publique ou au
contraire garder ces aspects privés. Au cœur de la notion de respect de la vie
privée se trouvent donc les principes de conscience et de contrôle. Dès lors que
vous êtes conscient des données et informations que vous partagez et avec qui
vous les partagez, il n’y a pas, a priori, de violation de la vie privée. En
revanche, si un utilisateur n’est pas informé que ses données personnelles seront
partagées, ni avec quelle entreprise elles le seront, on se trouve face à une
violation de la vie privée. C’est précisément ce qui s’est produit dans le cas de
Cambridge Analytica.
D’ailleurs, Mark Zuckerberg, le fondateur de Facebook, affirmait en 2011 :
« La vie privée est une norme sociale dépassée33. » Ce point de vue est révélateur
de sa conception personnelle du sujet. Dans une veine similaire et assez
pessimiste, Vinton Cerf, l’un des pionniers d’Internet, a déclaré : « La vie privée
est devenue une anomalie. » (Marin, 2013) Néanmoins contrairement à ce qu’ils
affirment, la vie privée n’a pas entièrement disparu et fort heureusement. Elle
reste une notion incontournable qui permet de garantir un équilibre entre la
sphère publique et privée, essentielle pour le bon fonctionnement de toute
société. Pour autant, il est vrai que l’équilibre optimal à trouver entre les données
que l’on consent à partager dans la sphère publique et celles que l’on devrait
garder privées, n’est pas évident à trouver en raison de nombreux facteurs
contextuels récents. L’influence d’Internet et l’essor de la datafication
notamment, ont rendu nos conceptions de la vie privée de plus en plus
individuelles, selon le bénéfice que l’on tire des technologies actuelles. À ce
titre, la vie privée est de plus en plus vécue comme un choix ou une liberté :
j’accepte d’abandonner une partie de ma vie privée si cela en vaut la peine.

4.3. La vie privée à l’épreuve d’Internet


Pour distinguer clairement la vie privée de la vie publique, comme le
recommandait Aristote, nous avons, au fil du temps, trouvé un certain équilibre.
Généralement, dans la vie quotidienne, il y a peu d’ambiguïtés ou de problèmes
concernant le respect de la vie privée. Des normes sociales et des lois existent
pour garantir la protection de cette sphère privée. Par exemple, si vous vous
amusez à fouiller dans le courrier de votre voisin ou si vous prenez une photo de
quelqu’un chez lui à son insu, vous risquez une amende. Cependant, avec
l’arrivée d’Internet, notre capacité à encadrer le respect de la vie privée a été
considérablement chamboulée. Tout circule très vite, souvent trop vite pour le
système judiciaire, rendant ainsi difficiles la poursuite et la condamnation des
violations. En conséquence, la frontière entre vie privée et vie publique est
devenue plus floue.
Par exemple, imaginons que vous postiez des photos de vos vacances sur un
réseau social. Votre intention est de maintenir ces images, qui relèvent de votre
vie privée, à l’intérieur de cette même sphère privée. En effet, vous souhaitez les
partager uniquement avec vos amis proches qui vous suivent en ligne, et non pas
avec le monde entier. Cependant, même si votre but est de limiter l’accès à ces
photos à un cercle restreint, il faut se rappeler que vous les publiez sur une
plateforme détenue par une entreprise dont le modèle économique repose sur la
publicité. Les données que vous partagez sont extrêmement précieuses pour cette
entreprise, qui peut les exploiter à des fins commerciales. Comme on le dit
souvent : « Si c’est gratuit, c’est que vous êtes le produit. » Ce principe
s’applique particulièrement bien aux réseaux sociaux comme Facebook ou
Instagram. Ainsi, ces informations que vous considérez comme privées
pourraient très bien se retrouver dans l’espace public, partagées avec d’autres
entités ou entreprises partenaires du réseau social en question. En effet, vous
avez forcément donné votre consentement à cette utilisation, en acceptant des
conditions d’utilisation du réseau social en question, que vous n’avez très
probablement pas lues.
Cela souligne à quel point les frontières entre la vie privée et la vie publique
peuvent rapidement s’estomper. Ce phénomène est accentué par la valeur
économique considérable que représentent ces données personnelles. Selon une
estimation du Boston Consulting Group (BCG) en 2012, l’identité numérique
des consommateurs représenterait une valeur d’environ 330 milliards d’euros
pour les entreprises34. Cette somme reflète l’intérêt stratégique des données
personnelles, qui, exploitées intelligemment, permettent aux entreprises de
peaufiner leur connaissance client, d’affiner leurs offres, de rationaliser leur
logistique, et d’élaborer des campagnes marketing ciblées, et in fine se traduit
par d’importantes retombées économiques. Plus récemment, la Commission
européenne, a indiqué qu’en 2020, la valeur des données personnelles
représenterait près de 8 % du PIB de l’Europe35. Une autre estimation a chiffré la
valeur moyenne des données personnelles par individu à 17,98 € au niveau
mondial36. Il n’est donc pas surprenant que les entreprises convoitent ces
précieuses données. De plus, des modèles d’affaires entiers se sont développés
autour de la collecte et de l’exploitation de ces données. C’est notamment le cas
des courtiers en données, ou data brokers, dont la mission est de collecter,
organiser, croiser et revendre des informations personnelles. Cette importance et
cette valorisation des données personnelles se sont également renforcées avec le
mouvement de la quantification de soi ou quantified self que nous avons évoqué
précédemment. Comme nous l’avons vu, ce mouvement encourage
l’accumulation de données de plus en plus précises sur soi-même, englobant
diverses variables telles que le rythme cardiaque, le taux de sudation ou les
mouvements corporels. Le but est de tracer et mesurer chaque aspect de
l’individu pour diverses applications, ajoutant ainsi une nouvelle dimension à la
masse de données personnelles disponibles.
Pour illustrer l’importante valeur marchande des données personnelles,
l’internaute Oli Frost a pris l’initiative en 2018 de mettre ses propres données
aux enchères sur eBay37. Pour cela, il a compilé l’ensemble de son activité en
ligne et sur les réseaux sociaux, enregistrée depuis ses 16 ans, puis a ouvert une
vente aux enchères pour ces données. En seulement 24 heures, les enchères ont
atteint près de 300 livres sterling. Cependant, Frost a été contraint de retirer sa
vente, car elle violait les conditions d’utilisation des réseaux sociaux d’où
provenaient ces données. Néanmoins, l’initiative a réussi à sensibiliser le public
sur l’importance et la valeur monétaire des données personnelles que nous
divulguons parfois souvent sans trop y réfléchir.

4.4. L’IA et nos données personnelles


Ces données personnelles sont donc très précieuses et tout particulièrement
lorsque des intelligences artificielles peuvent être employées pour les analyser et
faire des prédictions. En quelques mots, une donnée personnelle est souvent
définie comme toute information se rapportant à une personne physique qui est
ou peut être identifiée directement ou indirectement38. On distingue
généralement trois grandes catégories de données personnelles.
En premier lieu, il y a les « données courantes », qui incluent le nom, le
prénom, la date et le lieu de naissance d’un individu, ainsi que l’adresse IP de
son ordinateur, ses photos, son adresse e-mail, son numéro de téléphone, son
adresse postale ou encore la plaque d’immatriculation de sa voiture. Ensuite, on
a les « données sensibles », qui sont plus rarement collectées. Celles-ci
englobent des informations sur la santé de l’individu, ses mœurs, ses données
biométriques et génétiques, ainsi que ses opinions religieuses, politiques ou
philosophiques, ou encore son origine raciale ou ethnique. Enfin, il existe une
catégorie de « données hautement personnelles », qui requièrent des protections
et des traitements spécifiques. Cela comprend les informations bancaires et
financières de l’individu, son numéro de sécurité sociale, d’éventuelles
condamnations pénales ou infractions, ainsi que ses données de géolocalisation.
En y réfléchissant, il est rapidement évident que de nombreux services fondés
sur des algorithmes d’intelligence artificielle tirent parti d’une grande quantité de
ces données personnelles. Prenons l’exemple de Google. Avec des services
comme Gmail ou Google Chrome, vous fournissez probablement à Google un
accès à vos données courantes, telles que votre nom, prénom, adresse e-mail et
l’adresse IP de votre ordinateur. Avec Google Photos ou Android, l’entreprise
peut également accéder à vos photos personnelles. En ce qui concerne les
données sensibles, même si leur collecte est plus rare, Google y a également
largement accès. Par exemple, vos choix de visionnage sur YouTube ou vos
requêtes sur le moteur de recherche de Google peuvent fournir des indications
importantes sur vos opinions religieuses, politiques ou philosophiques. Google
Analytics et les cookies permettent également un suivi détaillé de votre activité
en ligne. En quelques mots, un cookie c’est un témoin de connexion. Il s’agit
d’un fichier texte qui contient des informations sur l’utilisateur et ses actions en
ligne, comme les clics effectués, les changements de pages et le temps passé sur
une page. Au-delà de ces données liées à votre activité en ligne, Google peut
également accéder à des données plus sensibles, telles que des informations sur
votre santé, grâce à des produits comme Google Fit. Enfin, Google dispose aussi
d’accès à des données hautement personnelles, qu’il s’agisse de vos données de
géolocalisation via Android et Google Maps ou de vos informations bancaires
lorsque vous faites des achats sur des plateformes comme Google Play ou
souscrivez à un abonnement YouTube. Je vous recommande d’ailleurs de
consulter la section « Données et confidentialité » dans les paramètres de votre
compte Google, dans laquelle vous pourrez voir les types de données que
Google collecte sur vous39. Vous verrez c’est assez impressionnant.
En outre, avec le développement des assistants vocaux ou encore des objets
connectés et de la domotique, de nouveaux types de données personnelles voient
le jour. Ces données révèlent de nouveaux aspects de notre vie et enrichissent le
profiling potentiel qui peut être fait de nous. En effet, ce qui devient
problématique avec la collecte de ces informations, c’est quand il y a une
possibilité de croiser ces diverses données personnelles pour élaborer des profils
psychologiques, générés par des algorithmes formés sur ces immenses
ensembles de données accumulées. Considérons le cas de Clara, une utilisatrice
fréquente des produits Google. Par ses recherches en ligne, elle révèle un intérêt
marqué pour les livres de développement personnel et de coaching, tandis que
son utilisation de Google Calendar montre une participation régulière à des
séminaires sur le bien-être. Ses e-mails et ses transactions par Google Pay
suggèrent un penchant pour l’achat de produits de santé. En même temps, ses
photos stockées sur Google Photos contiennent un grand nombre d’images de
randonnées, tandis que son historique de localisation inclut souvent des studios
de yoga. De plus, les questions qu’elle pose à son Google Home indiquent un
intérêt pour les pratiques de méditation et de pleine conscience. En croisant ces
informations, un profil peut être établi, dépeignant Clara non seulement comme
une adepte de la santé et du bien-être mais aussi comme une personne
privilégiant une vie équilibrée entre le travail et le loisir, tournée vers
l’autoamélioration et la recherche d’expériences enrichissantes. Un tel profilage
peut fournir une image extrêmement détaillée de notre personnalité et de notre
vie, posant clairement un risque pour le respect de la vie privée. C’est un danger
inhérent aux grands modèles de machine learning multidisciplinaires qui traitent
et se forment sur une variété de ces données, puis font des prédictions basées sur
elles.
Mais les problèmes de vie privée avec l’IA ne s’arrêtent pas simplement à la
question des données personnelles utilisées pour entraîner les algorithmes. Dans
les faits, en matière de vie privée, l’attention se porte souvent sur cette question
de collecte des données personnelles, mais malheureusement, on néglige trop
souvent d’évoquer les algorithmes eux-mêmes qui peuvent pourtant révéler des
informations sensibles. En effet, si un algorithme a été formé sur des données
personnelles, ses prévisions et actions peuvent facilement trahir ces informations
collectées. Ainsi, assurer la protection de la vie privée en prétendant que les
données personnelles sont confidentielles, non collectées ou non stockées, ne
suffit pas. Pour illustrer ce point, prenons l’exemple de la plateforme de
streaming vidéo YouTube. Vous avez peut-être remarqué que le fil d’actualité,
sur lequel YouTube recommande du contenu vidéo, peut grandement varier entre
deux comptes différents. C’est parce que l’algorithme ajuste ses
recommandations en fonction de ce que l’utilisateur semble préférer, en se
basant sur des critères comme le temps passé sur les vidéos, le nombre de vidéos
visionnées, etc. Les ajustements de son algorithme se fondent sur l’historique de
navigation YouTube de l’utilisateur, une donnée personnelle qui peut être très
révélatrice de ses opinions, croyances et préoccupations privées. Toutefois,
restreindre l’accès à cet historique de navigation à une tierce personne ne suffit
pas à garantir la vie privée de l’utilisateur. En effet, même sans accès à
l’historique, il suffirait de consulter le fil de recommandations pour rapidement
comprendre les préférences de visionnage de l’utilisateur. J’imagine que vous
avez sûrement constaté à quel point le fil d’actualité pouvait être assez parlant et
refléter les habitudes de visionnage d’une personne.
Cet aspect du problème est malheureusement très rarement abordé dans les
discussions sur les données personnelles et de respect de vie privée. Pourtant
cette dimension cruciale de l’IA soulève la question légitime de savoir si
l’algorithme lui-même ne devrait pas être considéré comme une donnée
personnelle. Cette question est d’autant plus pertinente aujourd’hui avec
l’émergence et la popularisation d’importants modèles linguistiques comme
ChatGPT, qui sont entraînés sur d’énormes quantités de données, mêlant à la fois
des données privées et publiques. À ce sujet, une étude réalisée en 2012 par
Carlini et ses collègues a démontré qu’il était possible d’extraire des
informations personnelles sur de véritables individus (noms, numéros de
téléphone, adresses e-mail, etc.) à partir de grands modèles linguistiques, comme
GPT-2 dans leur étude. Il suffisait de poser les bonnes questions à l’algorithme
pour le pousser à révéler ces informations, en l’occurrence ici, en utilisant des
formulaires à trous que l’algorithme devait compléter.
Il est donc évident que la simple confidentialité des données personnelles n’est
pas suffisante à l’ère de l’IA. Il existe de véritables enjeux et risques liés à la vie
privée avec le déploiement de ces technologies. Surtout si l’objectif est de créer
des algorithmes toujours plus performants : plus ces algorithmes sont efficaces,
plus notre vie privée est mise en danger. À l’instar du fil de recommandation de
YouTube : plus il est pertinent et précis, plus il devient facile de déduire les
préférences et habitudes de visionnage d’un individu.

4.5. Les consommateurs et leur vie privée


L’intelligence artificielle, très gourmande en data, peut ainsi compromettre un
certain respect de la vie privée de diverses manières. Or, comment cela est-il
vécu par les utilisateurs mais aussi les consommateurs que nous sommes ? On
constate qu’il y a une véritable inquiétude quant à l’utilisation des données
personnelles, surtout en ce qui concerne leur réutilisation. Que font les
entreprises de mes données ? Et surtout les revendent-elles à des tiers ? En
France, près de 60 % des personnes interrogées se disent très inquiètes à ce
sujet40.
Pour autant, les recherches dans ce domaine montrent que cette inquiétude
exprimée n’est pas nécessairement en accord avec les comportements observés
chez ces mêmes utilisateurs. La corrélation entre le niveau d’inquiétude et le
comportement des utilisateurs concernant la vie privée est en effet assez faible.
Paradoxalement, des milliards de consommateurs à travers le monde continuent
de partager régulièrement des informations très personnelles, en dépit de leur
préoccupations exprimées. Ce phénomène est connu sous le nom de Privacy
Paradox (Kokolakis, 2017). Il se peut que vous-même vous soyez touché par ce
paradoxe. Bien que vous exprimiez probablement des inquiétudes quant à
l’exploitation de vos données personnelles par les entreprises de la tech, vous
continuez de publier tout de même des photos personnelles sur Instagram, de
partager vos opinions sur Twitter (X), ou d’utiliser des services de messagerie
non cryptés.
Si la majorité des consommateurs que nous sommes tombent dans ce paradoxe
de la vie privée, il est tout de même possible d’identifier trois grands segments
de comportements différents face à cette question (voir Figure 32) (Kumaraguru
& Cranor, 2005 ; Westin, 2003).
Figure 32. Trois segments de comportements vis-à-vis de la vie privée d’après la classification de Westin

Source : autrice
Tout d’abord, il y a les « pragmatiques », qui constituent la majorité des
personnes. Ces individus sont prêts à partager leurs informations personnelles
tant que les avantages en retour leur semblent suffisamment attractifs. Même
s’ils sont souvent peu informés des forces en présence et de l’ensemble des
enjeux sous-jacents, ces pragmatiques cherchent à opérer un calcul utilitaire : si
divulguer mes données me donne accès à un service vraiment avantageux, alors
je le fais volontiers. Ils voient donc un bénéfice à partager certaines de leurs
informations.
Ensuite viennent les « fondamentalistes », qui représentent près d’un quart de
la population. Ces personnes sont fermement opposées à toute collecte et
utilisation de leurs données personnelles, que ce soit par les entreprises ou les
gouvernements. Ils sont généralement moins sujets au Privacy Paradox en
raison de leur vision idéologique de la vie privée, qu’ils considèrent comme un
enjeu crucial. Pour minimiser leur empreinte numérique, ils prennent diverses
mesures, telles que l’utilisation de messageries cryptées, l’usage de modes de
navigation privée, l’utilisation de VPN, la désactivation de la géolocalisation sur
leur téléphone ou encore le refus de cookies et de trackers web.
Enfin, il y a les personnes « non concernées », qui forment le groupe le moins
représenté. Pour ces individus, la question de la vie privée est largement
insignifiante. Ils ne voient pas le partage d’informations et de données
personnelles comme un problème, considérant cela comme une partie intégrante
de la vie moderne.
Et vous, quel type de consommateur êtes-vous ?

4.6. Vers un deuil de la vie privée ?


Face à l’essor des intelligences artificielles et à leur rôle prépondérant dans
notre quotidien, on observe parfois un sentiment naissant de perte de contrôle
pouvant conduire à une forme de renoncement à notre vie privée. Il y a ce
sentiment d’être traqué et de ne plus trop avoir le choix tant ces technologies qui
aspirent nos données personnelles sont devenues indispensables à notre
quotidien.
D’après un sondage réalisé en 2014 par Havas Media, 30 % des Français
seraient prêts à vendre leurs données personnelles. Ce chiffre grimpe à 42 %
chez les plus jeunes, prêts à divulguer davantage d’informations sur eux-mêmes
en échange de compensations financières41. Dans leur livre publié en 2016, Marc
Dugain et Christophe Labbé évoquent une expérience artistique particulièrement
révélatrice de ce phénomène, réalisée en octobre 2014 à Brooklyn. Cette
initiative avait pour but de sensibiliser le public à la protection des données
personnelles et son résultat est assez éloquent. Au cours de cette expérience près
de 380 New-Yorkais ont accepté de fournir leur nom, adresse, empreintes
digitales et numéro de sécurité sociale en échange d’un simple cookie à la
cannelle. Il est clair que ce type d’expérimentation peut laisser penser qu’il y a
un certain abandon à protéger ses informations personnelles, manifestant ainsi
une forme de deuil de la vie privée qui s’est progressivement mise en place.
Le dessinateur Tom Fishburne résume astucieusement cette dynamique dans
son illustration Les 5 étapes du deuil de la protection des données42. Avec un
mélange d’humour et de sarcasme, il adapte les cinq étapes traditionnellement
reconnues en psychologie pour décrire le processus de deuil, mais les place dans
le contexte de la vie privée et des données personnelles.
La première étape, le « déni », consisterait en cette phase dans laquelle nous
minimisons notre présence en ligne, en nous disant : « De toute façon, je suis
rarement actif sur les réseaux sociaux, cela ne me concerne pas vraiment. » À ce
stade, l’illusion de ne pas être concerné nous permet de naviguer en ligne sans
trop de souci, en pensant que notre faible activité nous rend invisibles ou
insignifiants pour les collecteurs de données.
La deuxième étape, la « colère », serait un moment de prise de conscience
brutale. Nous réalisons alors que les services en ligne ont accumulé une quantité
considérable de données personnelles sur nous : « Ils ont enregistré 5 Go de
données sur moi ! » Cette réalisation nous pousse alors à supprimer certaines de
ces données ou même les applications qui les ont collectées.
La troisième étape, la « négociation », nous conduirait à une réflexion plus
nuancée. Nous nous posons alors la question : « Est-ce vraiment si mal d’être un
peu surveillé si cela me permet d’accéder à des services que j’apprécie et qui
sont gratuits ? » À ce stade, nous cherchons plutôt à trouver un juste milieu entre
la praticité et la protection de notre vie privée.
La quatrième étape, la « dépression », serait un moment de réalisation plus
sombre. Nous comprenons que les données que nous pensions voir collectées ne
sont en réalité que la partie émergée de l’iceberg : « Donc Google a non
seulement accès à mes e-mails, mais il a aussi une carte exhaustive de tous mes
déplacements au cours de l’année ? » À ce stade, la perspective de l’étendue de
la collecte de données peut sembler écrasante.
Enfin, la cinquième et dernière étape serait l’« acceptation ». À ce stade, notre
comportement s’alignerait sur celui d’un consommateur qui ne se soucie guère
de la vie privée. Évidemment tout le monde n’en arrive pas là et cette illustration
a surtout une portée humoristique et satirique. Mais dans cette potentielle phase
d’acceptation, il peut y avoir un argument que l’on entend parfois autour de nous
et qui consiste à dire : « De toute façon, moi je n’ai rien à cacher ! » Que pensez-
vous de cet argument ? Est-ce quelque chose que vous pensez également ? Je
vous invite à y réfléchir quelques instants.
Pour répondre à cet argument, il y a cette phrase prononcée par Edward
Snowden que je trouve particulièrement percutante. Pour rappel, Edward
Snowden est un ancien employé de la CIA et de la NSA qui a révélé l’existence
de plusieurs programmes de surveillance de masse aux États-Unis. Il s’est donc
évidemment beaucoup prononcé sur cet enjeu du respect de la vie privée. À ceux
qui disent, « de toute façon, je n’ai rien à cacher », il rétorque : « Prétendre que
votre droit à une sphère privée n’est pas important parce que vous n’avez rien à
cacher revient à dire que la liberté d’expression n’est pas essentielle car vous
n’avez rien à dire. » Cette citation est intéressante car elle place la liberté
d’expression et le droit à la vie privée sur le même plan. Pour nous, la liberté
d’expression est une évidence, un droit fondamental que nous cherchons à
préserver, que nous ayons ou non quelque chose à dire. Selon Snowden, il
devrait en aller de même pour le respect de la vie privée.

1. https://www.deepmind.com/publications/a-generalist-agent
2. https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html
3. https://blog.google/technology/ai/introducing-pathways-next-generation-ai-architecture/
4. https://edition.cnn.com/2014/09/09/opinion/bostrom-machine-superintelligence/
5. “I think we should be very careful about artificial intelligence. If I had to guess at what our biggest
existential threat is, it’s probably that.” (Elon Musk)
6. “I am in the camp that is concerned about superintelligence. I agree with Elon Musk and some others on
this and don’t understand why some people are not concerned.” (Bill Gates)
7. “Humans who are limited by slow biological evolution couldn’t compete and would be superseded. The
development of full artificial intelligence could spell the end of humanity.” (Stephen Hawking)
8. https://futureoflife.org/fli-projects/elon-musk-donates-10m-to-our-research-program/
9. https://openai.com/
10. https://www.nytimes.com/2022/04/15/magazine/ai-language.html
11. https://www.forbes.com/sites/rachelarthur/2016/03/30/sephora-launches-chatbot-on-messaging-app-kik/
12. https://www.carrefour.com/fr/news/2023/carrefour-integre-les-technologies-de-openai-et-lance-une-
experience-de-courses-avec-la
13. https://www.apa.org/monitor/2023/06/chatgpt-learning-tool
14. https://www.bfmtv.com/tech/intelligence-artificielle/un-avocat-gratuit-a-portee-de-main-peut-on-faire-
confiance-aux-conseils-des-chat-gpt-du-droit_AV-202305170028.html
15. https://huggingface.co/spaces/stabilityai/stable-diffusion
16. https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html
17. https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/l-ia-de-microsoft-est-elle-reellement-
devenue-raciste-au-contact-des-internautes_31260
18. https://www.lesechos.fr/industrie-services/conso-distribution/quand-le-logiciel-de-recrutement-
damazon-discrimine-les-femmes-141753
19. https://interaktiv.br.de/ki-bewerbung/en/
20. Pour approfondir le sujet, je vous recommande de visiter le site de la BR pour consulter l’article dans
son intégralité, c’est très bien fait. https://interaktiv.br.de/ki-bewerbung/en/
21. https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
22. https://www.sciencesetavenir.fr/sante/dermato/cancer-de-la-peau-une-intelligence-artificielle-meilleure-
dans-le-depistage-que-les-dermatologues_124423
23. https://thesmilenews.com/2022/09/16/meet-the-researcher-shining-a-light-on-the-white-lens-of-medical-
ai-in-skin-cancer-prevention/
24. https://www.bfmtv.com/economie/entreprises/industries/accident-mortel-le-logiciel-d-uber-etait-
incapable-de-reconnaitre-un-pieton-traversant-hors-des-clous_AN-201911060101.html
25. https://medium.com/@alex.jones/ibm-watson-openscale-and-ai-fairness-360-two-new-ai-analysis-tools-
that-work-great-together-5f0740142ba1
26. https://www.statista.com/statistics/518069/north-america-survey-enterprise-poor-data-quality-reasons/
27. https://neurips.cc/Conferences/2017
28. https://medium.com/swlh/the-great-ai-debate-interpretability-1d139167b55
29. https://www.tylervigen.com/spurious-correlations
30. Citation originale : “Big Brother works much better with smart algorithms.”
31. https://www.thehindu.com/news/international/how-a-personality-quiz-on-facebook-helped-donald-
trump-find-his-voters/article61875119.ece
32. https://www.courrierinternational.com/article/classement-videosurveillance-le-top-20-mondial-des-
villes-qui-espionnent-leurs-habitants
33. https://www.lemonde.fr/technologies/article/2010/01/11/pour-le-fondateur-de-facebook-la-protection-
de-la-vie-privee-n-est-plus-la-norme_1289944_651865.html
34. https://www.bcg.com/publications/2012/digital-economy-consumer-insight-value-of-our-digital-identity
35. https://www.pwc.co.uk/data-analytics/documents/putting-value-on-data.pdf
36. https://itsocial.fr/articles-decideurs/combien-valent-vos-donnees-personnelles-infographie/
37. https://www.vice.com/en/article/3k4ay8/sell-facebook-data-ebay-oli-frost
38. https://www.cnil.fr/fr/definition/donnee-personnelle
39. https://myaccount.google.com/dashboard?
continue=https%3A%2F%2F2.zoppoz.workers.dev%3A443%2Fhttps%2Fmyaccount.google.com%2Fdata-and-privacy%3Fhl%3Dfr&hl=fr
40. https://fr.statista.com/statistiques/822641/niveau-inquietude-usage-donnees-personnelles-reseaux-
sociaux-france/
41. https://www.data.gouv.fr/fr/datasets/les-francais-et-leurs-donnees-personnelles-etude-1/
42. https://marketoonist.com/2018/04/dataprivacy.html
CHAPITRE 4. DES REMISES EN QUESTION
SOCIÉTALES IMPORTANTES
Au-delà des avancées et des applications fascinantes rendues possibles par
l’intelligence artificielle, nous avons tout au long de ce livre abordé de
nombreux risques associés à ces évolutions. Ceux-ci incluent le non-respect de la
vie privée, les répercussions néfastes des IA biaisées, le phénomène de « boîte
noire » inhérent à certaines IA, ou encore les inquiétudes croissantes entourant le
développement précipité des IA générales. Dans ce chapitre final, nous allons
prendre un peu plus de hauteur pour élargir notre discussion sur l’éthique des
intelligences artificielles, en y incluant des questions plus universelles et des
enjeux plus généraux impactant notre société. En particulier, nous aborderons
une préoccupation croissante selon laquelle, malgré la contribution positive des
modèles open source à l’innovation en IA, la concentration des technologies de
pointe entre les mains de quelques grandes entreprises modifie substantiellement
les rapports de forces et les équilibres de pouvoir traditionnels. Ces entreprises
possèdent non seulement les ressources financières pour investir massivement en
recherche et développement mais contrôlent également les vastes ensembles de
données nécessaires pour entraîner des IA avancées, ce qui renforce leur position
dominante. Par ailleurs, il semble aujourd’hui nécessaire de s’interroger sur
l’orientation et l’utilisation de ces intelligences artificielles. Comment réagir si
les intentions derrière leur déploiement sont malveillantes ? Quelle approche
adopter face aux risques de surveillance de masse ou à la possible utilisation de
« robots tueurs » par exemple ? Comment peut-on réguler efficacement ces
technologies pour à la fois protéger les citoyens et capitaliser sur les bénéfices de
l’IA ? Outre ces considérations relatives aux applications des intelligences
artificielles, il faut rappeler que l’IA, régie par des algorithmes, cherche à
maximiser des objectifs spécifiques. Comment alors déterminer ce qui mérite
d’être maximisé pour le bien commun ? Cela soulève une série de dilemmes
moraux, comme ceux rencontrés dans le cas d’accidents de voitures autonomes
par exemple. En outre, comment les avancées en IA peuvent-elles remettre en
cause les fondements de nos systèmes démocratiques traditionnels ? Quels
cadres devrions-nous établir pour aborder et répondre à ces problématiques
complexes ? Comment devrait évoluer la relation entre l’humain et l’IA ? Et
surtout, comment faut-il repenser nos structures organisationnelles et les
pratiques existantes ? Nous explorerons ces diverses questions tout au long de ce
dernier chapitre.
1. NOUVEAUX RAPPORTS DE FORCES GÉOPOLITIQUES ET
ENJEUX DÉMOCRATIQUES

1.1. Le pouvoir des GAFAM


Dès lors que l’on commence à constater une dépendance croissante aux
technologies et aux intelligences artificielles qui nous accompagnent dans notre
quotidien, il devient important de se demander qui est le propriétaire de ces
technologies. Ceci permet notamment de comprendre les rapports de forces
potentiellement en jeu. Or à cet égard, nous pouvons facilement constater qu’il
existe une concentration majeure de la propriété de ces technologies. Les
détenteurs de ces IA que nous utilisons tous les jours, ne représentent en effet
qu’une poignée d’entreprises, ce qui leur confère un pouvoir assez inédit.
Pour parler de ces entreprises, on fait souvent référence aux cinq géants de la
tech, connus sous l’acronyme GAFAM pour Google, Amazon, Facebook, Apple
et Microsoft. Ces entreprises américaines dominent actuellement le marché de
l’intelligence artificielle. Cette domination n’est pas anodine, puisqu’elle
s’exerce sur des domaines qui imprègnent notre vie quotidienne, tels que notre
utilisation d’Internet, de nos smartphones, de nos maisons connectées, et des
réseaux sociaux. En collectant massivement des données sur nos habitudes de
vie et de consommation et en fournissant des services devenus presque
indispensables, ces entreprises jouissent d’un pouvoir considérable. Par exemple,
Google Search enregistre des milliards de requêtes par jour1 et YouTube est
responsable de 70 % des milliards de visionnages de vidéos réalisées dans le
monde. Gmail ou Outlook passent en revue l’ensemble de nos e-mails et Google
conserve notre historique sur le Web ou encore nos différents déplacements
géographiques via Google Maps. De même, l’entreprise Facebook, récemment
rebaptisée Meta, collecte beaucoup de données sur les préférences, les opinions
et les activités de ses utilisateurs. Ces GAFAM détiennent plus d’informations
sur les citoyens, leur vie, leurs habitudes et préférences que quiconque. D’après
Marc Dugain et Christophe Labbé (2016), les GAFAM détiendraient jusqu’à
80 % des informations personnelles en ligne de l’ensemble de la population
mondiale.
Ces entreprises sont ainsi en mesure de collecter non seulement des volumes
considérables de données, mais aussi de les analyser avec une plus grande
efficacité grâce à leurs intelligences artificielles parmi les plus avancées du
marché. Par exemple, Meta et Apple ont développé des systèmes de
reconnaissance faciale très performants en entraînant leurs IA sur des milliards
de photos d’utilisateurs. De même, Google peut par exemple utiliser son service
Google Photos pour entraîner ses IA dans la reconnaissance d’image, en
s’appuyant sur des milliards d’images stockées. Cette domination technologique
est accentuée par le fait que ces entreprises rachètent assez régulièrement un
grand nombre de start-up technologiques ou d’entreprises concurrentes. Cette
stratégie leur permet de perfectionner leurs solutions, de détruire la concurrence
et de récupérer les meilleurs ingénieurs et technologies du marché. À ce titre,
une grande partie des services de Google que vous connaissez sont pour la
plupart des acquisitions via des rachats d’entreprises. En à peine 10 ans, Apple a
racheté au moins 29 start-up spécialisées dans l’IA, Google en a racheté 15,
Microsoft 13, Meta 12 et Amazon 7 (voir Figure 33)2.
Figure 33. Nombre de start-up IA rachetées par les GAFAM de 2010 à 2021

Source : autrice, adaptée de Statista. https://fr.statista.com/infographie/9418/gafam-rachats-et-acquisitions-


de-startups-ia/
Comme vous le savez, en matière d’IA, la quantité de données accumulées et
la puissance de calcul disponible sont des facteurs clés pour entraîner et créer
des modèles complexes de deep learning. Sur ce terrain, les GAFAM possèdent
indéniablement une longueur d’avance, probablement irrattrapable aujourd’hui,
ce qui les place en position de force. Et leur prédominance sur le marché leur
octroie une influence considérable, tant dans l’économie que dans les débats
politiques. D’ailleurs, si l’on compare la capitalisation boursière des GAFAM
aux PIB nationaux, il apparaît que leur valeur économique pourrait les classer
comme étant la troisième économie mondiale (voir Figure 34), devançant ainsi le
Japon et l’Allemagne3.
Figure 34. Les GAFAM, troisième économie mondiale en termes de capitalisation boursière comparée aux
PIB nationaux
Source : lafinancepourtous.com d’après la Banque mondiale et Bloomberg

Et la crise sanitaire de la Covid-19 n’a pas remis en question la position


dominante de ces géants technologiques ; bien au contraire, elle l’a renforcée.
Ces entreprises ont en effet toutes enregistré de très fortes croissances en 2020
(voir Figure 35).
Figure 35. Une croissance à deux chiffres pour les GAFAM en 2020
Source : autrice, adaptée de Statista. https://fr.statista.com/infographie/21595/croissance-chiffre-affaires-
gafam/

La stature et l’influence économique des GAFAM leur confèrent un pouvoir


significatif, au point d’être régulièrement accusés d’impacter la politique de
divers pays. Un exemple notable est, bien sûr, le scandale de Cambridge
Analytica que nous avons évoqué précédemment, lors duquel des publicités
ciblées ont été diffusées sur Facebook pour influencer les élections américaines
de 2016 et le vote du Brexit. La suppression du compte Twitter de Donald
Trump a notamment provoqué de vifs débats sur le rôle de ces plateformes de
réseaux sociaux dans la formation de l’opinion publique, en raison notamment
des questions qu’elle pose sur la liberté d’expression, le pouvoir de modération
des entreprises technologiques et leur impact sur le discours politique (Leloup &
Piquard, 2021). Plusieurs de ces géants de la tech ont également établi des
lobbys influents à Washington D.C. ou à Bruxelles notamment (Stroobants,
2021). Leur présence dans ces centres de pouvoir leur permet d’exercer une
influence considérable sur les réglementations qui pourraient affecter leur
activité, qu’il s’agisse de réglementations sur la vie privée ou de législations
fiscales.
Mais cette interconnexion entre pouvoir économique et politique est encore
plus évidente chez les géants de la tech chinois, communément appelés BATX
pour Baidu, Alibaba, Tencent et Xiaomi. Ces entreprises sont de sérieux
concurrents des GAFAM. Par exemple, Alibaba est devenu le premier
distributeur mondial en 2016, surpassant Amazon4. Le rôle du gouvernement
chinois au sein de ces entreprises est central. En Chine, l’État exerce un contrôle
total sur Internet, à tel point que l’accès à des plateformes étrangères comme
Facebook ou YouTube y est interdit et substitué par leurs équivalents locaux. Il
possède également un droit de regard sur toutes les données collectées, qui sont
considérables et surtout très riches d’informations sur les citoyens chinois.
L’application WeChat détenue par l’entreprise Tencent par exemple, permet de
tout connaître de la vie d’un individu puisque cette application regroupe en une
seule plateforme des applications comme WhatsApp, Uber, Deliveroo, Amazon,
et même Doctolib. On peut absolument tout faire sur cette plateforme, ce qui est
certes très pratique, mais pose également de graves questions en matière de vie
privée. En effet, la concentration de tant de services et de données associées
augmente le risque de surveillance et de profilage par un unique opérateur.
D’autant plus que la législation chinoise n’impose aucune limite sur la collecte
de données et oblige les entreprises à partager l’intégralité des informations avec
le gouvernement. Ce cadre confère donc au parti communiste chinois un pouvoir
de surveillance et de contrôle considérable.
Au-delà de ces enjeux économiques et politiques importants, l’hégémonie de
ces géants technologiques, qu’ils soient aux États-Unis ou en Chine, soulève
également des questions cruciales sur les usages et les éventuelles conséquences
néfastes des IA qu’ils développent. Cette prédominance des GAFAM et des
BATX a pour résultat qu’elles sont les seules à dicter la manière dont elles créent
leurs systèmes d’IA, qui peuvent ensuite avoir des impacts sur des millions de
consommateurs et de citoyens. Comme l’exprime avec justesse Tristan Harris,
ancien cadre chez Google : « Jamais dans l’histoire, il n’y a eu cinquante
concepteurs prenant des décisions ayant un impact sur deux milliards de
personnes5. » Facebook, YouTube ou Google déterminent le contenu auquel nous
sommes exposés via leurs algorithmes de suggestion, ce qui est loin d’être sans
conséquence. On peut y voir une forme de délégation de la souveraineté à des
entités privées. À ce sujet, Gaspard Kœnig souligne dans son livre : « Quand
Facebook applique ses propres critères pour déterminer les contenus acceptables,
il devient le principal régulateur de la liberté d’expression, au mépris du Premier
Amendement américain ou, côté français, de la loi de 1881… Des siècles de
jurisprudence, tâchant d’établir la frontière toujours subtile entre la protection et
la censure sont volatilisés. » (Kœnig, 2019, p. 233) Sans aller jusqu’à dire que
ces entreprises exercent un contrôle absolu sur notre liberté d’expression ou
notre démocratie, il est évident que leur influence dépasse le simple cadre
économique pour s’étendre aux sphères politiques et démocratiques. Pour
Yannick Meneceur, « c’est l’expression démocratique même qui est
progressivement confisquée par une nouvelle élite qui est déjà en train de se
charger de nous dire ce qui est bien ou mal » (Meneceur, 2020, p. 7). Cette
notion de moralité auto-imposée par ces entreprises américaines est assez
flagrante rien qu’en considérant le slogan historique de Google, « Don’t be
evil », qui a longtemps guidé l’image de marque de l’entreprise depuis ses
débuts. Aujourd’hui, sous l’égide d’Alphabet Inc., la devise qui s’est
transformée en « Do the right thing » perpétue cette tradition de l’entreprise de
se poser en moralisateur et modèle de vertu.
D’ailleurs Meneceur utilise fréquemment l’expression évocatrice de « coup
data » dans son ouvrage pour souligner le pouvoir grandissant de ces entreprises
technologiques. Certaines, comme Facebook avec sa tentative de lancement du
Diem (anciennement Libra)6, ont même ambitionné de créer leur propre
monnaie. Parallèlement, d’autres géants technologiques ont développé leurs
propres solutions de paiement, à l’instar de Google Pay, Amazon Pay et Apple
Pay, élargissant leur influence dans le secteur financier. Cette tendance marque
un glissement potentiel de la gouvernance, traditionnellement l’apanage des
institutions publiques, vers des acteurs privés. Conçus à l’aide d’intelligences
artificielles sophistiquées et souvent opaques, les services et produits de ces
entreprises exercent une réelle influence sur nos vies et le fonctionnement de nos
démocraties. Bien que ces services et produits puissent avoir des effets positifs,
il est essentiel de rester attentif à leurs possibles répercussions défavorables sur
nos vies et la santé de nos démocraties.

1.2. Le danger des boucles


Les géants du numérique que sont les GAFAM développent des algorithmes et
des IA intégrés dans le quotidien de millions de citoyens et de consommateurs.
Nous l’avons vu, Netflix et YouTube recommandent des films et vidéos à
visionner, Google propose des résultats de recherche pour répondre aux
questions que l’on se pose, Facebook et Twitter (X) mettent en avant du contenu
ou des news que leurs algorithmes jugent pertinents, et ainsi de suite. Des
entreprises comme Meta et Google vont même jusqu’à rivaliser avec les canaux
médiatiques traditionnels, devenant de véritables intermédiaires essentiels dans
la diffusion de l’information. Leurs algorithmes déterminent la manière dont
divers contenus sont partagés, propagés et mis en avant. Cependant, il est
impératif de reconnaître les limites inhérentes à la confiance que l’on accorde au
contenu recommandé sur ces plateformes, car la conception de ces algorithmes
peut comporter des risques importants.
Un danger fréquemment mentionné est celui des boucles de recommandation.
L’écrivain et activiste Eli Pariser évoque la théorie des « bulles de filtres », qui
désigne le processus par lequel les algorithmes et l’ultra-personnalisation
peuvent isoler les individus culturellement et socialement. Lors d’une interview
accordée au Time Magazine en mai 2011, voici ce qu’il disait à propos des
algorithmes sur les réseaux sociaux : « Vous vous endoctrinez vous-même avec
vos propres opinions. Vous ne réalisez pas que ce que vous voyez n’est qu’une
partie du tableau. Et cela entraîne des conséquences sur la démocratie : pour être
un bon citoyen, il faut que vous puissiez vous mettre à la place des autres et
avoir une vision d’ensemble. Si tout ce que vous voyez s’enracine dans votre
propre identité, cela devient difficile, voire impossible7. »
En effet, les systèmes de personnalisation sont développés de sorte que les
informations mises en avant varient d’une personne à l’autre. Prenons l’exemple
d’une élection présidentielle. Si vous avez précédemment cherché des articles ou
vidéos soutenant un candidat particulier, vos fils d’actualité sur Facebook ou sur
Twitter (X) vont probablement continuer à vous montrer des contenus qui
favorisent ce même candidat. Cela renforce votre point de vue initial et minimise
l’exposition à des opinions différentes, ce qui augmente le risque de vous
enfermer dans ces fameuses bulles de filtres. Dans de tels scénarios, ces bulles
auront tendance à vous présenter uniquement des contenus qui correspondent à
vos préférences ou opinions. Ce phénomène pose un sérieux problème en
matière d’accès à une information diversifiée. Les algorithmes peuvent ainsi
nous enfermer dans des boucles autorenforçantes, nous faisant courir le risque de
tourner en rond et de nous exposer continuellement aux mêmes types de
contenu.
Ce risque que l’on observe est en fait intrinsèque au fonctionnement du
machine learning. Par définition, les algorithmes se basent sur notre passé, qu’ils
analysent et cherchent à reproduire. Ils font l’hypothèse que notre futur sera
comme notre passé, ce qui limite les occasions d’évoluer ou de changer d’avis.
Ce phénomène est particulièrement manifeste sur des plateformes comme
Facebook, où les bulles de filtres ont été mises en cause pour leur rôle dans la
diffusion de théories du complot et d’autres contenus potentiellement
problématiques. Dans ces écosystèmes clos, des informations non vérifiées ou
trompeuses peuvent circuler sans entrave, souvent partagées et repartagées par
des individus qui adhèrent aux mêmes convictions, exacerbant ainsi la
polarisation et la désinformation. Cette dynamique algorithmique peut avoir des
implications sérieuses, non seulement pour l’individu mais aussi pour la société
dans son ensemble.
Au-delà du problème d’accès à une diversité de contenus fiables, un autre
enjeu lié aux algorithmes de recommandation est la confiance aveugle que nous
leur accordons. Que ce soit pour une recherche sur Google ou pour visionner des
vidéos sur YouTube, nous comptons sur ces plateformes pour nous fournir des
réponses pertinentes. La plupart du temps, cela fonctionne remarquablement
bien. Cependant, il arrive que Google mette en avant des sources de
désinformation, remettant en question la fiabilité de ses recommandations.
Prenons l’exemple de la nouvelle fonctionnalité de Google Search qui utilise
l’intelligence artificielle pour extraire automatiquement des informations de sites
web afin de répondre directement à nos questions. Si vous cherchez sur Google
« Comment soigner une angine », une réponse apparaîtra en haut de la page,
extraite d’un site web : « Mangez des aliments mous ou liquides. Cela sera plus
facile à manger. Les tisanes, au thym et au miel, voire au citron peuvent aussi
vous aider à condition qu’elles soient tièdes. Faites des gargarismes à l’eau salée
pour soigner votre angine naturellement. » La réponse semble tout à fait
pertinente et sans danger. Mais peut-on vraiment faire 100 % confiance aux
réponses fournies ? Un internaute sur Twitter8 avait signalé un gros problème
avec cette fonctionnalité à son lancement. Lorsqu’il a demandé à Google
comment réagir en cas de crise d’épilepsie, la plateforme a suggéré des actions
telles que « essayer d’arrêter les mouvements de la personne, lui mettre quelque
chose dans la bouche, etc. ». Sauf que Google avait automatiquement récupéré, à
partir d’un site web, la liste des choses à ne pas faire en cas de crise et non pas la
liste des choses à faire. Cela peut devenir ainsi très dangereux si nous plaçons
une confiance aveugle dans la capacité de Google à nous fournir des réponses
fiables. Un responsable de Google a réagi sur Twitter en indiquant que cette
erreur serait corrigée. Toutefois, d’autres erreurs pourraient très bien subsister
sans avoir été détectées. Il est donc nécessaire d’aborder avec prudence les
informations que ces systèmes automatisés nous fournissent.
Dans les faits, il semble pourtant que nous accordions plutôt une confiance
aveugle à ces plateformes, qui exercent une influence considérable sur nos
opinions. Comme le relèvent les écrivains et journalistes Marc Dugain et
Christophe Labbé, ces plateformes ont « une influence incomparable à celle des
médias traditionnels, car, comme le soulignent les scientifiques, les internautes
font beaucoup plus confiance à l’information piochée sur le Net et croient dur
comme fer en la neutralité apparente des moteurs de recherche, alors qu’ils se
méfient de plus en plus de ce que la presse écrit ou des commentaires de
journalistes à la télé » (Dugain & Labbé, 2016). Et les implications de cette
confiance et d’un manque d’esprit critique sur les suggestions des IA ne sont pas
anodines. Des études, comme celle réalisée par Epstein et Robertson (2015), ont
par exemple mis en évidence l’impact des moteurs de recherche sur les élections.
Selon cette étude, un classement biaisé des résultats de recherche pourrait
influencer les préférences de vote des électeurs indécis de 20 % ou plus, en
fonction des informations qui sont rendues plus ou moins visibles. Ce
phénomène, connu sous le nom d’« effet d’ordre de classement des moteurs de
recherche » (search engine ranking effect), démontre le potentiel d’influence
énorme que les algorithmes peuvent avoir sur la formation de l’opinion publique
et les décisions politiques.
Ainsi, suivre des algorithmes de recommandation et de suggestion automatisés
n’est donc pas sans risques. Il est alors crucial de s’interroger sur les
conséquences de ces IA, non seulement pour les choix individuels, mais aussi
pour la démocratie et la société dans son ensemble.

1.3. L’importance du résultat à optimiser


Les algorithmes de recommandation posent souvent de graves problèmes en
désinformant les citoyens, en polarisant les débats et en isolant les individus
culturellement et socialement. Mais derrière ces enjeux, est-ce vraiment
l’intelligence artificielle qui est en cause ?
Il convient de rappeler que les systèmes d’intelligence artificielle reposent sur
des algorithmes. Ces algorithmes ajustent des modèles statistiques pour atteindre
un objectif précis. Un des défis clés dans le développement de ces algorithmes
est de définir avec précision leur objectif. Qu’est-ce qu’une entreprise comme
Meta cherche à optimiser avec son algorithme ? Malgré l’évolution des
réglementations encadrant la transparence et l’utilisation des données
personnelles, l’objectif principal des systèmes de recommandation de Meta reste
d’optimiser l’engagement des utilisateurs pour maximiser les revenus
publicitaires. En d’autres termes, la plateforme cherche à inciter les utilisateurs à
passer le plus de temps possible en ligne, ce qui, naturellement, conduit ses
algorithmes à favoriser des contenus qui plaisent à ces mêmes utilisateurs, leur
limitant ainsi un accès à un éventail diversifié de contenus. En contraste, si Meta
avait conçu ses algorithmes pour, par exemple, encourager l’épanouissement
intellectuel, la diversité des perspectives, ou la curiosité, nous ne serions pas
confrontés à ces mêmes limitations des systèmes de recommandation actuels.
Ceci nous rappelle que l’IA est en quelque sorte une page blanche à partir de
laquelle nous sommes libres de faire ce que nous voulons. L’impact bénéfique de
ces systèmes d’IA dépend donc de notre discernement quant aux objectifs
sociaux que nous souhaitons atteindre. Nous pouvons concevoir des IA pour
maximiser le profit, mais nous pourrions tout aussi bien les développer pour
renforcer le bien-être, les droits de l’homme, la préservation de l’environnement
ou encore le respect de certaines valeurs.
Quand nous utilisons des technologies d’intelligence artificielle, une question
fondamentale est donc de savoir dans quel objectif cette IA a été développée, et
par conséquent, ce que l’on cherche à optimiser avec les algorithmes qui la sous-
tendent. Déjà dans les années 1960, le mathématicien Norbert Wiener mettait en
garde contre le potentiel détournement des objectifs des machines, en affirmant :
« Il vaut mieux être sûr que la finalité de la machine est celle que nous
souhaitons vraiment9. » (Wiener, 1960) La question de l’objectif et de ce que
l’on cherche à optimiser avec nos intelligences artificielles est ainsi essentielle.
L’IA n’est ni intrinsèquement bonne, ni mauvaise ; elle est un outil dont l’impact
repose entièrement sur son design et sur l’usage que nous en faisons. Comme
toute technologie, elle peut être employée pour résoudre des problèmes sociaux
complexes ou, au contraire, pour les exacerber. Cette ambivalence est souvent
illustrée par la célèbre métaphore du marteau. Un marteau peut être un outil
précieux pour construire une maison en nous aidant à enfoncer des clous plus
facilement. Mais il peut aussi être utilisé pour causer des dommages graves
comme frapper la tête de quelqu’un par exemple. De la même manière, selon
comment et pourquoi elle est développée et utilisée, l’IA peut engendrer
beaucoup d’éléments positifs en servant des objectifs louables comme la
promotion du bien-être humain, mais aussi des éléments très négatifs en créant
des divisions et des préjudices.
Ce que les GAFAM cherchent à optimiser ce sont naturellement leurs revenus.
Des plateformes comme celles détenues par Google ou Meta ont un business
model qui repose sur la publicité et l’accumulation de données. Elles sont des
piliers de ce que l’on nomme « l’économie de l’attention », dans laquelle on
considère l’attention des individus comme étant une ressource rare. Ces
entreprises se battent pour cette ressource et vont ainsi naturellement chercher à
ce que les internautes passent le plus de temps possible sur leurs plateformes.
Ainsi, leurs IA vont plutôt chercher à améliorer le temps de visionnage, que l’on
appelle souvent par son nom anglais watchtime. Bien que l’objectif de
maximiser l’engagement et le temps de visionnage puisse paraître inoffensif en
théorie, dans la pratique, il peut conduire à des conséquences nuisibles. Ainsi,
considérer l’objectif des IA ne suffit pas, il faut également se questionner sur les
effets indésirables qui peuvent émerger d’une maximisation de l’objectif en
question. En effet, pour pousser les internautes à passer du temps sur la
plateforme et visionner toujours plus de contenu, les IA en viennent à exploiter
nos instincts les plus primaires. Par exemple, des études ont montré que les êtres
humains avaient tendance à se tourner vers des contenus et informations qui
procurent le plus un sentiment de danger. Cet attrait pour la peur trouverait son
origine dans notre cerveau reptilien, qui est programmé pour nous aider à
survivre en dirigeant notre attention vers des événements potentiellement
dangereux ou risqués.
Pour illustrer ce point, considérons le sujet du vaccin contre la Covid-19, mais
abordé de deux manières différentes. Imaginons que l’on propose à une personne
de choisir entre ces deux titres d’articles sur lesquels cliquer :
• Premier titre : Après plusieurs centaines d’essais cliniques, le vaccin se
révèle être efficace à plus de 95 % ;
• Deuxième titre : Attention le vaccin est dangereux pour notre santé :
découvrez les 3 pires effets secondaires !
Il est probable que l’individu soit davantage attiré par le deuxième titre. On
constate que les contenus sensationnels, chargés d’émotions fortes et notamment
négatives, sont les plus efficaces pour capter l’attention. Il n’est donc pas
surprenant que, comme le révélait le Washington Post en 2021, l’algorithme de
Facebook valorisait cinq fois plus les emojis exprimant la colère que les likes10.
De nombreuses études démontrent que ces plateformes exploitent divers biais
et mécanismes psychologiques11. Elles utilisent, par exemple, le système des
likes pour stimuler le circuit de la récompense, encouragent la concurrence à
travers des systèmes de partage et jouent sur notre attirance pour le danger ou le
conflit en privilégiant du contenu conflictuel ou sensationnaliste. Les articles
possédant des titres « piège à clics », ou clickbait en anglais, ont une bien
meilleure chance d’être promus par les algorithmes que ceux au ton plus modéré
(Delrue, 2017). En quelques mots, un titre « piège à clics » est un titre rédigé de
manière à attirer l’attention et à inciter les internautes à cliquer sur le lien,
souvent en utilisant des formules accrocheuses ou des déclarations provocantes
qui ne sont d’ailleurs pas nécessairement représentatives du contenu de l’article
lui-même. Ce penchant pour le sensationnalisme n’est cependant pas une
invention de notre ère du numérique. Au XIXe siècle, il y avait ce que l’on
appelait le « journalisme jaune », qui se caractérisait par la publication d’articles
volontairement sensationnalistes, incluant des scandales ou des révélations
anonymes qui faisaient beaucoup vendre (Campbell, 2001). On s’est rapidement
rendu compte que l’être humain était attiré par ce type de contenu qui pourtant
n’était pas professionnel, éthique ou sérieux. Les journaux à scandales de type
tabloïd s’appuient également sur ces biais humains pour générer des revenus.
Cependant, il est indéniable que les réseaux sociaux et leurs algorithmes de
recommandation automatisée amplifient ces effets, avec le risque que les
utilisateurs s’isolent dans une bulle d’informations et de contenus de faible
qualité et potentiellement problématiques.
En plus de la création de bulles de filtres, la conception d’algorithmes pour
maximiser l’engagement utilisateur a également pour effet de favoriser
l’addiction. Ces algorithmes, conçus pour maximiser l’engagement des
utilisateurs, créent un cercle vicieux qui peut entraîner une utilisation excessive
des plateformes. Le réseau social TikTok, champion en la matière, utilise un
algorithme réputé pour induire un niveau d’addiction particulièrement élevé. Le
système de recommandation de TikTok est en effet conçu pour apprendre
rapidement les préférences d’un utilisateur en affinant constamment le contenu
présenté pour le rendre de plus en plus captivant. Mais il ne se contente pas de
mettre en avant du contenu que l’utilisateur apprécie, car ce n’est pas suffisant
pour maximiser l’addiction. En mixant des vidéos à forte traction avec d’autres
moins engageantes, l’algorithme exploite le mécanisme de « récompense
variable », qui incite les utilisateurs à continuer à faire défiler leur fil d’actualité
dans l’espoir de trouver la prochaine vidéo qui retiendra leur attention12. Cette
stratégie, semblable aux techniques utilisées dans les jeux d’argent, crée une
dynamique de « chasse au trésor » où l’utilisateur peut se retrouver à passer des
heures à la recherche de contenus satisfaisants.
De nombreuses études ont alerté sur ce sujet en mettant en lumière les effets
potentiels sur la santé mentale des individus, allant du stress à l’anxiété, et dans
certains cas jusqu’à la dépression. Pour mesurer cette addiction, les chercheurs
ont élaboré des instruments d’évaluation spécifiques, tels que la Facebook
Addiction Scale par exemple (Schou Andreassen et al., 2012). Voici quelques
questions extraites de cette échelle, afin que vous puissiez évaluer votre propre
niveau d’addiction à votre réseau social favori. Bien que ce test ait été
initialement conçu pour Facebook, il peut être adapté à tout autre réseau social
de votre choix, qu’il s’agisse d’Instagram, TikTok, Twitter (X), Snapchat, et
ainsi de suite. Dans les questions suivantes, remplacez simplement [réseau] par
le nom du réseau social que vous souhaitez évaluer :
1.Vous passez beaucoup de temps à penser à [réseau] ou à ce que vous allez
faire sur [réseau]
a. Très rarement
b. Rarement
c. Parfois
d. Souvent
e. Très souvent
2. Vous avez envie d’utiliser toujours plus [réseau]
a. Très rarement
b. Rarement
c. Parfois
d. Souvent
e. Très souvent
3. Vous utilisez [réseau] pour oublier vos problèmes personnels
a. Très rarement
b. Rarement
c. Parfois
d. Souvent
e. Très souvent
4. Vous avez déjà essayé de réduire votre utilisation de [réseau], sans succès
a. Très rarement
b. Rarement
c. Parfois
d. Souvent
e. Très souvent
5. Vous devenez agité(e) ou anxieux(se) si vous êtes dans l’impossibilité
d’utiliser [réseau]
a. Très rarement
b. Rarement
c. Parfois
d. Souvent
e. Très souvent
6. Vous êtes tellement sur [réseau] que cela a un impact négatif sur votre
travail ou vos études
a. Très rarement
b. Rarement
c. Parfois
d. Souvent
e. Très souvent
Si vous avez répondu « Souvent » ou « Très souvent » à au moins quatre de ces
six questions, cela signifie, d’après les auteurs de l’étude, que vous avez une
utilisation problématique du réseau social en question.
En somme, il est clair que les effets néfastes des algorithmes sur ces
plateformes sont intrinsèquement liés à un élément clé : ce que les entreprises
cherchent à optimiser. En cherchant à optimiser leur profit, ces entreprises
peuvent parfois s’éloigner de ce qui est souhaitable et bénéfique pour le bien
commun, ce qui est d’autant plus préoccupant quand on considère l’impact
significatif de ces produits et services sur la vie quotidienne des citoyens.
Pour autant, il convient de préciser que même lorsque les objectifs sont
bienveillants ou en apparence bénéfiques, il demeure complexe en pratique de
les définir de manière adéquate pour s’assurer qu’ils effectuent réellement ce que
l’on souhaite, sans créer d’autre problèmes non désirés. D’ailleurs quand Wiener
(1960) affirmait qu’il fallait s’assurer que la finalité de la machine est celle que
nous souhaitons, il précisait également : « Celle que nous souhaitons vraiment, et
non une pâle imitation de celle-ci13. » Ainsi, il faut non seulement définir un
objectif approprié, mais il faut également s’assurer que cet objectif soit exprimé
de façon à engendrer le résultat désiré. Vous l’aurez compris, l’intelligence
artificielle n’a pas de sens commun et ne fera donc pas nécessairement ce qui
nous semble intuitif ou allant de soi.
De Bruyn et al. (2020) donnent un exemple assez révélateur de cet aspect.
Dans leur papier de recherche, ils décrivent une expérience dans laquelle ils ont
programmé un vaisseau spatial autonome chargé d’explorer un environnement
virtuel. L’objectif était qu’il se déplace correctement parmi les obstacles face à
lui. Pour cela, leur première approche était de pénaliser l’agent artificiel chaque
fois qu’il heurtait un obstacle. Toutefois, cette approche n’a pas produit les
résultats escomptés. L’IA, dans un souci d’éviter les pénalités, a simplement
choisi de rester immobile. Lorsqu’une pénalité supplémentaire a été imposée
pour l’immobilité, l’agent a commencé à tourner sur lui-même. Enfin, une
récompense basée sur la vitesse a été ajoutée, ce qui a conduit l’agent à se
déplacer très rapidement, ignorer les obstacles et les pénalités associées. Ainsi,
définir des fonctions d’objectifs qui encapsulent fidèlement les attentes
humaines dans des environnements complexes est très difficile, car certains
objectifs humains sont implicites et difficiles à quantifier. Prévoir et mesurer les
conséquences des choix algorithmiques, ainsi que comprendre comment l’IA
réagira pour atteindre les objectifs fixés, ajoutent des niveaux supplémentaires
de complexité. Par conséquent, la manière dont nous définissons les critères à
optimiser est un enjeu à la fois capital et délicat.
Dans le monde de l’entreprise, il est courant de chercher à optimiser des
objectifs tels que la part de marché de l’entreprise, la fidélité des consommateurs
et les profits. Cependant, l’optimisation à court terme de ces objectifs par le biais
de l’IA peut avoir des conséquences importantes. Un exemple assez connu est
celui de la gestion d’Uber lors de l’attaque terroriste du 3 juin 2017 à London
Bridge. Suite à cette attaque, une panique généralisée a incité les gens à fuir le
quartier par tous les moyens possibles, y compris en utilisant Uber. Les prix
d’Uber, étant déterminés par un algorithme sensible à la demande, ont alors plus
que doublé. Bien que cet ajustement visait à optimiser les prix en fonction de la
demande, il a eu un impact négatif sur la réputation de l’entreprise, provoquant
l’indignation des utilisateurs et dégradant lourdement son image14. Dans ce
contexte, des domaines comme le management, les ressources humaines et le
marketing sont particulièrement vulnérables aux risques associés à l’IA. En effet,
la gestion du comportement des consommateurs et des interactions humaines
requiert des connaissances tacites et du bon sens, qui sont des éléments difficiles
à transférer aux IA et à programmer dans des algorithmes.
Plus les tâches sont complexes et ouvertes, plus il est difficile de définir des
fonctions d’objectif, en particulier lorsque le même algorithme est utilisé pour
plusieurs tâches distinctes. Cette question de la définition d’objectifs se pose
ainsi beaucoup dans le contexte du développement d’intelligences artificielles
générales ou d’éventuelles IA fortes. Imaginez une IA ultra sophistiquée, conçue
pour gérer tous les aspects de notre société. Quel objectif choisirions-nous
d’optimiser ? Prenez un moment pour y réfléchir.
On pourrait envisager, par exemple, d’optimiser le bonheur des citoyens
comme objectif principal. Après tout, n’est-ce pas l’ultime finalité ? Cependant,
même un objectif aussi bien intentionné pourrait engendrer de graves
conséquences imprévues. Supposons que pour maximiser ce bonheur collectif,
l’IA décide d’éliminer toutes les personnes souffrant de dépression. Dans
l’optique froide et calculatrice de la machine, cela pourrait effectivement
augmenter le « score de bonheur » moyen de la population. Mais une telle action
serait non seulement moralement répréhensible, mais aussi totalement en
contradiction avec l’esprit de l’objectif initial, qui est de créer une société plus
heureuse. Cet exemple souligne non seulement la complexité intrinsèque de la
définition d’objectifs pour des systèmes intelligents, mais met également en
lumière les enjeux éthiques considérables et les dangers liés aux effets
indésirables de la programmation de machines autonomes.

1.4. L’éthique chez les GAFAM


Aujourd’hui, les GAFAM sont responsables de la majorité des algorithmes
d’IA intégrés dans une vaste gamme de produits et services que nous utilisons
quotidiennement. Comme nous l’avons déjà constaté, ces algorithmes peuvent
avoir des effets néfastes sur notre bien-être, notre démocratie et nos sociétés dans
leur ensemble. Face à ces impacts potentiels, des questions éthiques de première
importance se posent autour de la conception de ces algorithmes. Néanmoins, les
algorithmes n’étant pas publics ou audités par des autorités indépendantes, les
GAFAM deviennent les seules garantes de cette évaluation de l’éthique de leurs
propres algorithmes. Elles finissent donc, en quelque sorte, par s’emparer de ces
questions éthiques à la place des régulateurs. Par exemple, on trouve un
« partenariat sur l’IA » qui a été lancé en 2017 par Google, Amazon, IBM et
Microsoft, rejoints plus tard par Apple, et qui a été développé pour débattre des
questions morales, identifier les sujets futurs et établir les meilleures pratiques en
matière d’éthique. Bien que cette initiative puisse être perçue comme positive,
voire même encourageante, le fait que ces entreprises définissent seules les
normes éthiques et les valeurs constitue un risque. Laisser la morale et les
valeurs collectives aux mains d’entreprises axées sur le profit n’est évidemment
pas sans danger.
D’autant plus que l’actuelle compétition effrénée dans le domaine de l’IA a pu
inciter certains de ces acteurs à négliger des questions éthiques essentielles, en
dépit des discours rassurants et des initiatives bien médiatisées des GAFAM. Par
exemple en 2020, Google a vraisemblablement cherché à démanteler
progressivement son comité d’éthique en procédant au licenciement de plusieurs
de ses membres. Parmi eux se trouvait notamment Timnit Gebru15, une
scientifique de chez Google qui avait rédigé un article académique alertant
contre les dangers des modèles de deep learning trop volumineux, ce qui était
clairement en contradiction avec les objectifs annoncés de l’entreprise en matière
de développement d’IA (Hao, 2020). Peu de temps après c’est Margaret
Mitchell, l’autre coautrice du papier et membre de l’équipe éthique de chez
Google, qui s’est fait licencier. Ces événements soulèvent de véritables
interrogations quant à la gestion de l’éthique au sein de la plus grande entreprise
du numérique au monde. Pour ne pas aller à l’encontre de ses objectifs, il
semblerait même que Google ait conseillé à ses chercheurs d’adopter une
approche plus positive dans la présentation de leurs travaux16.
Facebook a également été au cœur de controverses concernant la gestion de
l’éthique, notamment avec l’incident des Facebook files. En 2021, une série de
documents confidentiels issus d’enquêtes réalisées en interne a fuité. Ces
documents révélaient que l’entreprise était pleinement consciente des effets
néfastes de son algorithme sur la santé mentale des adolescents, sans pour autant
prendre de quelconques mesures correctives ou chercher à informer le public à
ce sujet. Au contraire, ces études internes ont montré que les récentes mises à
jour de l’algorithme du fil d’actualité favorisaient davantage la propagation de
contenus outrageants, violents et politiquement polarisants. Tout cela a donc été
fait en pure connaissance de cause. La lanceuse d’alerte, Frances Haugen,
ancienne cheffe de produit chez Facebook et à l’origine de cette divulgation, a
témoigné lors d’une audition parlementaire (Sullivan, 2021) : « Facebook a
compris que si l’algorithme était modifié pour rendre le réseau plus sûr, les
utilisateurs passeraient moins de temps sur l’application, cliqueraient moins sur
les publicités et, par conséquent, Facebook générerait moins de revenus17. » En
dépit de ces révélations internes, Facebook ne semble pas avoir pris de mesures
pour atténuer les impacts négatifs de ses algorithmes. Avant cette affaire,
l’entreprise n’avait jamais communiqué publiquement à ce sujet et avait même
fait des déclarations allant à l’encontre de ces découvertes. Ces Facebook
files ont également révélé que la société aurait suspendu des projets de son
équipe IA destinés à limiter la désinformation, craignant que cela ne diminue
l’engagement des utilisateurs et le taux d’attention, si importants pour son
business model.
Ainsi, il est clair que laisser la gestion de l’éthique entre les seules mains
d’acteurs privés s’avère assez risqué. Bien que ces entreprises aient
officiellement publié des lignes directrices éthiques, ces documents et initiatives
manquent de contraintes réelles, suggérant qu’il s’agit davantage d’une stratégie
de relations publiques que d’un véritable engagement de moyens. Dans ce
contexte concurrentiel, il est évident que ces acteurs ne sont pas les mieux placés
pour s’imposer eux-mêmes les règles et contraintes permettant de répondre à des
enjeux éthiques. L’autorégulation ne semble donc pas être la bonne solution.
Cela dit, même si la gestion de l’éthique au sein de ces entreprises peut laisser
à désirer, notons tout de même des évènements positifs qui ont été impulsés
grâce à plusieurs pressions en interne. Par exemple, Google avait pour projet de
collaborer avec un programme de recherche du Pentagone (Rauline, 2018).
L’idée était de fournir des IA de Google pour l’analyse vidéo à des fins de
surveillance ou même de frappes par drones. En réponse, les employés de
Google ont lancé une pétition qui a recueilli des milliers de signatures, mettant
finalement un terme au projet. Un cas similaire s’est produit chez Microsoft, qui
envisageait cette fois-ci, de fournir ses services aux autorités d’immigration
américaine (Samama, 2018).
L’autre bonne nouvelle est que la recherche sur les enjeux éthiques liés à l’IA
ne se fait pas uniquement au sein des GAFAM. Le monde académique est
fortement engagé dans ce domaine et de nombreuses études sont en cours.
Toutefois, ces événements et la manière dont l’éthique peut être gérée au sein
des GAFAM posent encore une fois la question de mieux encadrer et réguler ces
acteurs qui impactent significativement la vie des citoyens avec des algorithmes
potentiellement dangereux.

1.5. Enjeux et rivalités géopolitiques


La course à l’intelligence artificielle ne se fait pas seulement au niveau des
entreprises privées. Elle se joue également sur la scène internationale entre
divers pays et gouvernements. Chaque puissance veut jouer un rôle dans ce
développement des IA, afin de ne pas risquer une perte trop importante
d’opportunités économiques mais aussi de contrôle ou de pouvoir. En effet,
l’intelligence artificielle est perçue non seulement comme une technologie de
pointe, mais aussi comme un levier de puissance sur la scène mondiale. Il s’agit
d’un enjeu stratégique majeur, car l’IA a un impact sur presque tous les aspects
de la vie quotidienne et des activités professionnelles des citoyens, offrant ainsi
d’importantes opportunités économiques et financières. De l’agriculture à
l’urbanisme, en passant par l’éducation, l’environnement, les arts, les sports, le
divertissement, la justice et la défense militaire, l’IA a le potentiel de transformer
et révolutionner tous les aspects de notre société.
Voici les estimations réalisées en 2018 concernant l’évolution du chiffre
d’affaires généré par l’intelligence artificielle dans diverses régions du monde
(voir Figure 36). Déjà en 2018, on reconnaissait le potentiel colossal de l’IA
pour créer de la valeur économique, une opportunité que chaque pays souhaite
saisir.
Figure 36. Estimations du chiffre d’affaires généré par l’IA dans le monde, en milliards de dollars

Source : autrice, adaptée de Statista. https://fr.statista.com/infographie/13385/lintelligence-artificielle-un-


marche-qui-vaut-des-milliards

Comme nous pouvons le constater, l’intelligence artificielle est un marché


plein de promesses. En outre, son impact va bien au-delà des aspects purement
économiques. Par exemple, comme nous l’avons vu, le rôle de l’IA dans la
régulation de l’information sur des plateformes comme les réseaux sociaux en
fait un puissant outil d’influence sur les populations. Le président russe Vladimir
Poutine a d’ailleurs déclaré : « Le pays qui sera leader dans le domaine de
l’intelligence artificielle dominera le monde. » (Haski, 2017)
À travers le monde, les investissements dans l’intelligence artificielle sont
subtantiels, avec les États-Unis et la Chine, qui se démarquent comme les
principaux investisseurs dans ce secteur. Entre 2013 et 2018, ces deux nations
cumulaient à elles seules près de 90 % de l’investissement mondial en IA (voir
Figure 37).
Figure 37. Part des investissements mondiaux dans l’IA par pays, de 2013 à 2018
Source : autrice, adaptée de Statista. https://www.statista.com/statistics/941446/ai-investment-and-funding-
share-by-country/

Si les États-Unis restent aujourd’hui en tête en matière d’investissements, la


Chine s’emploie activement à rattraper son concurrent, de façon particulièrement
efficace ces dernières années, avec l’ambition de devenir le leader technologique
en matière d’IA. La Chine possède plusieurs atouts majeurs pour réaliser cet
objectif. Tout d’abord, elle dispose d’un vaste réservoir de données, idéal pour le
développement des algorithmes d’intelligence artificielle. Cette profusion de
données est en grande partie attribuable à sa population nombreuse, mais
également à l’engouement prononcé des Chinois pour la technologie. En effet,
ces derniers adorent utiliser des appareils technologiques qui génèrent et
collectent d’importantes quantités de données. Ce grand volume de données
collectées est ainsi grandement utile pour l’entraînement d’algorithmes de
machine learning. De plus, contrairement à d’autres pays où la vie privée reste
une préoccupation, la réglementation chinoise permet une utilisation quasi
illimitée des données personnelles.
La Chine peut également s’appuyer sur ses BATX, qui ne se limitent pas au
marché intérieur ; ils sont aussi très actifs à l’échelle internationale, y compris en
Europe et aux États-Unis. D’ailleurs, ce dynamisme à l’international offre un
contraste saisissant avec leurs rivaux américains, les GAFAM, qui sont souvent
exclus du marché chinois. La Chine est également très active dans l’intégration
de l’intelligence artificielle dans les systèmes de surveillance. Cette activité ne se
limite pas à son territoire national ; elle exporte également ses technologies à
d’autres pays, notamment en Afrique. L’expansion de cette technologie, sous le
couvert d’amélioration de la sécurité, porte en elle des risques d’atteinte à
l’autonomie et à l’indépendance nationale. Par exemple, l’entreprise Huawei a
déployé environ 1 800 caméras équipées de reconnaissance faciale à Nairobi et
est aujourd’hui présente dans 50 pays différents (voir Figure 38)18. Cette
présence croissante peut être perçue comme une forme d’ingérence, où
l’influence technologique de la Chine s’étend, potentiellement à l’encontre de la
souveraineté des pays hôtes.
Figure 38. Nombre de pays où sont présentes les entreprises leaders de la surveillance par IA

Source : autrice, adaptée de Carnegie. https://carnegieendowment.org/2019/09/17/global-expansion-of-ai-


surveillance-pub-
79847#:~:text=Empirically%2C%20the%20AIGS%20Index%20shows,leadership%20and%20primacy%20in%20AI

On le voit il y a de véritables rapports de forces et des enjeux géopolitiques qui


se jouent avec le développement et le déploiement de ces technologies.

1.6. Un déséquilibre lié à des conceptions différentes de l’éthique


Ainsi, des pays comme les États-Unis, la Chine mais aussi certains pays
européens comme la France, sont déterminés à investir massivement dans le
développement de l’intelligence artificielle, et ont élaboré des plans stratégiques
pluriannuels pour encadrer ces investissements. En France, par exemple, le
gouvernement a présenté sa vision et sa stratégie pour faire du pays un acteur clé
dans le domaine de l’IA, lors du sommet AI for Humanity en mars 201819. Ce
projet inclut le rapport Villani, qui fournit des directives pour l’élaboration d’une
stratégie nationale et européenne autour de l’intelligence artificielle20.
Parallèlement, la Chine a élaboré son « Grand Plan de stratégie future pour
l’IA », tandis que les États-Unis ont lancé The American AI Initiative, un projet
qui a permis de distribuer plus de moyens mais aussi de fournir un cadre général
de développement des IA intégrant des considérations éthiques (Amsili, 2019).
En effet, parallèlement à leurs stratégies de développement en intelligence
artificielle, les États ont également établi des lignes directrices et des principes
éthiques pour encadrer le futur de l’IA. En Europe on a développé les Ethics
Guidelines for Truthworthy AI21, tandis qu’aux États-Unis on trouve le Report on
the future of AI22 et en Chine les Beijing AI principles23. Cette volonté de
formuler et proposer des règles à suivre pour le développement d’IA éthiques est
tout à fait louable, mais des différences notables subsistent entre ces pays en
matière de conception éthique, comme en témoignent ces divers guides éthiques.
Ce type de divergences pourrait entraîner de sérieux obstacles pour le
développement futur des intelligences artificielles.
Prenons un exemple concret. En Chine, l’IA est largement employée dans le
domaine de la surveillance de masse, ce qui contraste fortement avec l’approche
européenne et celle de certains États américains (Zaugg, 2019). L’utilisation de
la reconnaissance faciale avec les caméras de surveillance suscite de fortes
réticences en Europe. Aux États-Unis également, cette pratique a été interdite
dans certaines villes, comme San Francisco (Lesnes, 2019). En Chine, en
revanche, cette utilisation est devenue rapidement très courante. Cette pratique
s’inscrit d’ailleurs dans un changement sociétal plus large impulsé par le
gouvernement chinois au cours des dernières années : « le système de crédit
social ». Ce dispositif gouvernemental vise à attribuer des notes aux citoyens en
fonction de divers aspects de leur vie quotidienne (Pedroletti, 2020). Qu’il
s’agisse de leurs performances scolaires ou professionnelles, de leurs
comportements envers leurs voisins ou collègues, ou encore de leur respect des
règles en vigueur dans l’espace public, chaque aspect de leur vie est pris en
compte pour établir une note moyenne de citoyenneté. Et des technologies
comme la reconnaissance faciale basée sur l’IA ou l’utilisation de données
biométriques permettent d’affiner ces évaluations avec une grande précision. Par
exemple, si un piéton traverse la rue lorsque le feu est rouge, il sera
automatiquement identifié par les caméras de surveillance, ce qui entraînera
automatiquement une réduction de sa note de citoyenneté. D’ailleurs, à Jinan,
dans la province du Shandong, des écrans géants projettent même le visage de
l’individu ayant commis l’infraction, dans le but de susciter un sentiment de
honte publique24. Aujourd’hui, un nombre croissant de policiers chinois sont
équipés de lunettes dotées de caméras de reconnaissance faciale alimentées par
l’IA (Zaugg, 2019). Cette technologie facilite et automatise la détection des
délits, et les associe directement aux notes de citoyenneté des individus
concernés.
Ce système de notation sociale développé en Chine entraîne des conséquences
très concrètes pour les citoyens chinois : selon la note moyenne de citoyenneté
d’un individu, celui-ci peut se voir accorder ou refuser l’accès à certains
services. Ainsi, un citoyen chinois dont la note aurait été abaissée pour avoir jeté
mégot par terre ou publié un message haineux sur les réseaux sociaux, peut tout
à fait se voir être interdit de prendre le train ou l’avion. C’est une surveillance
constante qui s’accompagne d’une pression sociale accrue. Même le système
éducatif n’échappe pas à cette tendance, faisant de plus en plus appel à des
technologies de reconnaissance faciale basées sur l’IA mais aussi à des
neurotechnologies de pointe pour surveiller la concentration des élèves en
classe25.
Pourtant, il convient de préciser que tout cela n’est pas nécessairement perçu
de manière négative par la population chinoise, qui voit beaucoup d’avantages
dans ce système tels que l’accès à des services améliorés, une plus grande
sécurité et un respect accru des règles. La vie privée n’est pas une fin en soi pour
beaucoup de Chinois, et comme nous l’avons vu, cette perspective est influencée
par une culture plus collectiviste qui privilégie le bien commun plutôt que les
libertés individuelles. Robin Li, PDG de l’entreprise chinoise Baidu, a d’ailleurs
illustré ce point de vue en 2018 en déclarant : « Je pense que les Chinois sont
plus ouverts et moins sensibles à la question de la vie privée. S’ils peuvent
sacrifier la vie privée au profit de la commodité, la sécurité ou l’efficacité, dans
de nombreux cas, ils sont prêts à le faire26. »
Comme nous l’avons vu, il y a manifestement une différence profonde entre
les cultures en ce qui concerne la conception de la vie privée. Benjamin
Franklin, une des figures emblématiques de la pensée occidentale, a déclaré en
1755 : « Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne
mérite ni l’une ni l’autre, et finit par perdre les deux. » Cette déclaration souligne
la valorisation occidentale des libertés individuelles même au détriment de la
sécurité collective. À l’opposé, la tradition confucéenne chinoise valorise
fortement l’harmonie sociale et les responsabilités collectives, faisant que le
souci du bien commun doit primer sur les intérêts personnels. Cette divergence
culturelle quant à l’appréhension de l’individu de sa vie privée et de la société en
général influence la structure même de nos sociétés. Mais ceci a également des
répercussions directes sur le développement de l’intelligence artificielle et les
dynamiques de pouvoir en cours. En effet, le fait que la Chine investisse
massivement dans le développement de l’IA, sans imposer de limites strictes sur
le respect de la vie privée, la place forcément en position de force par rapport à
d’autres pays plus prudents sur cette question. À l’inverse, les entreprises
européennes, en particulier, se trouvent dans une situation complexe, surtout
lorsqu’on les compare avec leurs homologues chinoises. Encadrées par des
réglementations strictes comme le RGPD, qui limite sévèrement l’utilisation des
données personnelles, elles font face à des contraintes substantielles. Si cette
prudence légale est tout à fait bénéfique pour les citoyens européens, certains
estiment qu’elle présente aussi un certain risque à considérer. Il existe en effet
une possibilité que ces pays européens, faute d’avoir su s’imposer dans la course
à l’intelligence artificielle, deviennent des sortes de « colonies numériques »
sous l’égide de leaders technologiques comme la Chine ou les États-Unis
(Charrel & Fagot, 2020). C’est un dilemme palpable pour des États comme ceux
de l’Union européenne, tiraillés entre la nécessité de rester compétitifs dans le
domaine de l’IA et l’impératif de préserver les valeurs fondamentales de leurs
sociétés.

1.7. Les possibles fins malveillantes


Les divergences culturelles et éthiques peuvent mener à des perspectives
variées sur ce qui est considéré comme bon ou mauvais et acceptable ou
inacceptable, lorsqu’il s’agit de développer des technologies d’intelligence
artificielle. Cependant, indépendamment de ces débats philosophiques et
culturels, il demeure que ces technologies sont susceptibles d’être détournées à
mauvais escient, et ce risque transcende les clivages culturels. Ainsi, quelle que
soit l’approche éthique ou culturelle adoptée, la question de l’usage responsable
de l’IA demeure impérative. Nous avons pu voir que les avancées en intelligence
artificielle sont de plus en plus impressionnantes et permettent des applications
potentiellement très bénéfiques pour l’humanité. Par exemple, la reconnaissance
visuelle peut améliorer la détection précoce des cancers de la peau ou aider à
identifier certaines maladies. En même temps, cette technologie peut devenir
problématique lorsqu’elle est utilisée pour identifier des individus sur les
images, et les surveiller à leur insu ou les stigmatiser. À titre d’exemple, des
chercheurs de Stanford ont publié un article dans lequel ils ont essayé d’utiliser
des technologies d’intelligence artificielle pour prédire l’orientation sexuelle des
individus, en analysant uniquement leurs visages (Tual, 2017). De nombreux
intellectuels ont alerté sur le danger inhérent à de telles études et applications. En
particulier, elles pourraient raviver des théories liées à la physiognomonie, une
approche pseudo-scientifique qui prétend évaluer la personnalité ou prédire le
comportement d’individus, à partir d’une analyse de leurs traits du visage et de
leur apparence physique (Tual, 2017). L’histoire nous a montré à quel point de
telles croyances pouvaient être dangereuses, en servant notamment de fondement
à diverses théories eugénistes et à un certain darwinisme social, qui ont entre
autres inspiré le nazisme.
L’utilisation d’algorithmes de reconnaissance faciale pour estimer l’orientation
sexuelle d’un individu, sa propension à commettre des crimes ou encore son
niveau d’intelligence par exemple, est problématique à plusieurs titres. Pour
commencer, ces algorithmes fonctionnent souvent grâce au deep learning, ce qui
les transforme en de véritables « boîtes noires ». Autrement dit, il est difficile de
comprendre ce qui conduit l’algorithme à faire telle ou telle prédiction à partir
d’une image donnée. Comme nous l’avons vu précédemment avec plusieurs
illustrations, il se peut que ce soient des éléments périphériques au visage,
comme l’arrière-plan par exemple, qui influencent les prédictions plutôt que les
traits du visage eux-mêmes. Si tel est le cas, il serait erroné de prétendre prédire
des comportements à partir de visages. Et quand bien même ces algorithmes
s’appuyaient réellement sur les traits du visage pour effectuer leurs prédictions,
cela mènerait à une stigmatisation dangereuse basée sur l’apparence physique.
Un tel scénario serait considéré comme un désastre social par de nombreux
experts. Imaginons que des algorithmes semblables à ceux développés par les
chercheurs de Stanford tombent entre les mains de régimes dictatoriaux et
homophobes : cela pourrait entraîner des arrestations massives sur la simple base
de l’apparence physique.
De façon générale, ces technologies ont le potentiel d’être utilisées à des fins
de suivi et de surveillance des individus, ce qui engendre de sérieuses
préoccupations éthiques. Il est donc évident que de telles applications de la
reconnaissance faciale peuvent s’avérer extrêmement dangereuses. C’est pour
cette raison que la CNIL a proposé en 2021 un moratoire27, qui a ensuite été
adopté par le Parlement européen, sur l’usage de ces technologies par les forces
de police. L’objectif est de restreindre l’accès des forces de l’ordre à ces outils
d’IA jusqu’à ce qu’un cadre juridique plus clair et plus sûr puisse être établi.
Ainsi, les IA spécialisées dans la reconnaissance d’image ou de visages
peuvent être détournées à des fins malveillantes et être très dangereuses. Il en va
de même pour les IA capables de générer des images ou des vidéos. Par
exemple, les algorithmes de deep learning actuels sont redoutablement efficaces
pour créer des images d’individus fictifs qui semblent pourtant très réalistes28.
Ces technologies peuvent donc, par exemple, être exploitées pour créer de faux
profils sur les réseaux sociaux ou élaborer des identités fictives.
Dans le même esprit, les technologies de deep fake posent également des
problèmes de taille. Basés sur des algorithmes d’intelligence artificielle, ces
outils ont la capacité de remplacer le visage d’une personne dans une vidéo par
celui d’un autre individu. Ils peuvent également donner vie à une photographie
statique, créant l’illusion que la personne est en train de parler grâce à une
animation réaliste des mouvements faciaux. En utilisant un grand nombre
d’images et de vidéos pour l’entraînement, l’IA réussit à simuler des expressions
et des mouvements faciaux de manière convaincante. De plus, ces algorithmes
permettent également de modifier une voix enregistrée pour qu’elle ressemble à
celle d’une autre personne. Avec le degré de réalisme atteint aujourd’hui, il
devient extrêmement difficile de distinguer visuellement un deep fake d’une
vidéo authentique. Ceci pose un problème de taille, car la vidéo est un moyen
extrêmement efficace de manipuler les foules et bientôt, cela sera impossible de
distinguer le vrai du faux.
Un exemple qui aurait pu avoir de très graves répercussions est la conception
et la diffusion en 2022, d’une vidéo deep fake du président ukrainien Volodymyr
Zelensky, alors en plein conflit armé avec la Russie29. Dans cette vidéo, on voit
le président qui demande à ses troupes de déposer les armes. Heureusement, des
IA spécialisées dans la détection de deep fakes ont rapidement établi que la vidéo
était entièrement falsifiée30. Néanmoins, on peut aisément imaginer les
retombées catastrophiques si cette détection n’avait pas eu lieu. Aujourd’hui, la
course technologique entre les IA créant des deep fakes et celles conçues pour
les identifier devient de plus en plus ardue. Les deep fakes sont devenus si
réalistes et si difficiles à distinguer qu’il se pourrait que bientôt, même des IA
spécialisées ne puissent plus être capables de les identifier. Face à cette réalité
inquiétante, il est impératif de réfléchir dès maintenant aux moyens de contrer la
production de contenu falsifié.
Une autre utilisation potentiellement alarmante de l’IA concerne la création de
drones ou de robots tueurs. En effet, la possible automatisation de la mise à mort
soulève d’importantes préoccupations éthiques, en particulier concernant le
respect de la dignité humaine. La capacité à déployer ces technologies à grande
échelle amplifie d’autant plus ces préoccupations. En parallèle, le problème de la
responsabilité légale et éthique liée à l’usage de ces armes ne peut être négligé.
Alors que les coûts de production baissent et que le savoir-faire technique se
diffuse, ces technologies vont devenir de plus en plus accessibles. Cette
accessibilité accrue augmente le risque qu’elles tombent entre de mauvaises
mains, ce qui rend la régulation de ces technologies d’autant plus cruciale.
Nombreux sont les experts qui ont appelé à la mise en place d’un traité
d’interdiction préventive, pour prévenir l’usage de telles armes. L’ONG Human
Rights Watch a notamment lancé un appel en 2018 pour l’interdiction des robots
tueurs31. En 2015, le Future of Life Institute a publié une lettre ouverte pour
demander l’interdiction des armes autonomes32. Parmi les signataires on y trouve
notamment des chercheurs et experts en IA comme Stuart Russell, Toby Walsh
ou Yann LeCun, mais aussi d’autres personnages publics comme Elon Musk,
Steve Wozniak ou Stephen Hawking.
Plus généralement, quel que soit le type de technologies d’IA développé et
employé, une attention particulière doit être portée pour prévenir les possibles
usages malveillants, et cela à toutes les étapes : de la création à l’utilisation, en
passant par la possibilité de manipulation externe de ces systèmes. En effet, de
nombreuses IA sont conçues en utilisant des méthodes de machine learning, et
certaines d’entre elles utilisent spécifiquement de l’« apprentissage par
renforcement ». Dans ce cas, l’algorithme apprend en interagissant directement
avec son environnement, en ajustant son comportement en fonction des réactions
ou des récompenses qu’il reçoit. Cette spécificité rend ces types d’IA
particulièrement vulnérables au hacking (piratage) ou à la manipulation de leur
environnement d’apprentissage. Des acteurs malveillants peuvent exploiter cette
interaction avec l’environnement pour manipuler et nuire aux performances de
l’IA. Reprenons l’exemple de Tay, cette intelligence artificielle lancée par
Microsoft en 2016, que nous avons évoquée précédemment. Conçue pour
représenter une adolescente américaine, Tay était programmée pour interagir
avec les utilisateurs sur Twitter et apprendre de ces échanges. Mais en quelques
heures, Tay est devenue raciste, antisémite et sexiste. Ce changement radical de
comportement ne s’explique pas seulement par la nature souvent controversée
des conversations sur les réseaux sociaux, mais aussi et surtout par un
phénomène de trolling. L’idée du concept de troll est de créer artificiellement
des polémiques en envahissant la discussion et en « bombardant » de messages.
Un nombre important d’individus complices ont ainsi coordonné leurs efforts
pour envoyer à Tay des propos violents et discriminants afin de biaiser son
apprentissage. Certains d’entre eux ont massivement tweeté des instructions du
type « répète », suivies d’un commentaire raciste, sexiste ou violent, ce qui a
incité Tay à propager ces messages haineux. Tay était une intelligence artificielle
qui a été corrompue en quelques heures seulement par des trolls. Lorsque
Microsoft a désactivé Tay au bout de 48 heures, ils ont publié un message faisant
justement référence à ce phénomène de troll : « Malheureusement, dans les
24 premières heures où elle était en ligne, nous avons constaté un effort
coordonné par certains utilisateurs pour maltraiter Tay et son habilité à
communiquer afin qu’elle réponde de manière inappropriée33. »
Lors de la conception et du déploiement de technologies d’intelligence
artificielle, il est crucial de rester vigilant face aux risques de hacking et aux
usages malveillants potentiels. Les développeurs et les fournisseurs de ces
systèmes se doivent d’évaluer les répercussions de leurs innovations. Certes, l’IA
a le potentiel de transformer positivement de nombreux aspects de notre vie
quotidienne, mais elle peut aussi entraîner des conséquences imprévues, non
désirées et dangereuses qu’il est impératif d’anticiper. Dans cette perspective, il
est fondamental d’établir un cadre juridique solide pour réglementer ces
technologies, afin de prévenir de potentielles utilisations malveillantes et
retombées néfastes. Les exemples alarmants que nous avons examinés dans ce
chapitre servent de rappel : il est impératif de fixer des limites morales et légales
pour assurer que ces avancées en IA demeurent effectivement bénéfiques.

1.8. L’impact sur l’environnement


Tout en restant conscient des risques d’utilisations malveillantes de l’IA, il est
impossible d’ignorer un autre enjeu tout aussi important : son impact
environnemental. Les systèmes d’intelligence artificielle, qui nécessitent un
stockage de grandes quantités de données et des capacités de calcul importantes,
sont particulièrement gourmands en ressources énergétiques. Cette forte
consommation d’énergie a un fort impact environnemental qui s’observe à trois
niveaux principaux.
Tout d’abord il faut considérer l’énergie nécessaire pour le stockage des
données utilisées pour l’entraînement des intelligences artificielles. Comme nous
l’avons vu, sans data il n’y a pas d’IA. Or ces données doivent bien être stockées
quelque part, généralement dans des installations appelées data centers. Ces
centres abritent des serveurs et des baies de stockage, et plus nous générons de
données, plus nous avons besoin de tels équipements. Or, le fonctionnement de
ces installations requiert une grande quantité d’électricité. De plus, la chaleur
dégagée par ces appareils nécessite également des systèmes de climatisation,
ajoutant encore à l’empreinte énergétique totale du data center. Selon Luc Julia,
un seul grand data center consommerait plus d’électricité qu’une ville française
de 100 000 habitants, la climatisation représentant près de la moitié de cette
consommation (Julia, 2019). En France, on estime que l’ensemble des data
centers consomment entre 7 et 10 % de la production électrique française. À
l’échelle mondiale, ils comptaient pour 4 % de la consommation énergétique
globale en 201534. Ces data centers ont ainsi un impact important sur notre
empreinte carbone. Une étude du Sénat français estime d’ailleurs que les data
centers sont responsables de 14 % de l’empreinte carbone du numérique en
France35.
Ensuite, vient l’énergie nécessaire pour la création des modèles d’IA eux-
mêmes. En plus de nécessiter un stockage de données coûteux en énergie, l’IA se
base sur des modèles de deep learning qui demandent des grosses capacités de
calcul pour entraîner et ajuster leurs modèles. Pour supporter ces besoins en
capacité de calcul, il est nécessaire d’utiliser des machines qui, bien que
performantes, sont très gourmandes en énergie. Par exemple, Luc Julia
mentionne que l’entraînement d’un modèle de traitement du langage naturel
(NLP) pendant moins d’une semaine peut consommer autant d’énergie que cinq
voitures le feraient sur leur durée de vie entière (Julia, 2019). Toutefois, il
convient de noter que la consommation d’énergie varie considérablement en
fonction de la complexité spécifique du modèle d’IA et des données traitées.
Bien que cette comparaison ne soit pas précise pour tous les modèles, elle
illustre l’ampleur de l’énergie requise pour certains des modèles d’IA les plus
avancés.
Enfin vient l’énergie nécessaire pour l’utilisation de ces IA. Après avoir formé
l’IA sur des modèles gourmands en énergie et traité une quantité astronomique
de données stockées dans des data centers énergivores et climatisés, on aboutit à
un produit ou un service basé sur cette technologie, prêt pour une utilisation
courante. Cependant, le simple usage de ces produits ou services génère
également une consommation énergétique notable. Prenons l’exemple du selfie,
mentionné par Luc Julia dans son livre : « Le selfie, qui semble anodin en
apparence, est en réalité un gouffre énergétique et écologique : chaque photo que
vous prenez et que vous postez sur votre mur Facebook est envoyée à travers des
dizaines de milliers de kilomètres de fibres et de câbles et transite par des
équipements réseaux jusqu’aux data centers de Facebook. Pour vous donner une
petite idée, cette simple photo de vous consomme à elle seule autant que trois ou
quatre ampoules basse consommation de 20 watts allumées pendant une heure !
Sans compter qu’il faut ensuite la stocker sur les serveurs et bien les refroidir… »
(Julia, 2019, p. 213) Si un simple selfie consomme autant, imaginez l’empreinte
énergétique d’un assistant vocal utilisé quotidiennement.
De façon générale, la digitalisation et l’utilisation d’Internet entraînent une
consommation énergétique considérable. Si l’on considérait Internet comme
étant un pays, il se classerait au troisième rang mondial en termes de
consommation d’électricité (Bohineust, 2019). Les algorithmes d’intelligence
artificielle contribuent significativement à ce bilan. Souvent pointés du doigt
pour leur impact écologique, ces algorithmes, en particulier ceux basés sur le
deep learning, nécessitent d’importantes capacités de calcul et de stockage. Cette
demande accrue en énergie pose des défis pour le futur des intelligences
artificielles et constitue une limite majeure à leur développement. Il y a quelques
années, Andrae et Edler (2015) ont réalisé une étude assez intéressante sur le
sujet, cherchant à prédire la consommation énergétique globale de ces
technologies, via l’élaboration de plusieurs scénarios. Dans le scénario le plus
défavorable, ils estiment que ces technologies pourraient représenter jusqu’à
23 % des émissions mondiales de gaz à effet de serre et consommer 51 % de
l’électricité produite mondialement en 2030.
À l’heure actuelle, nous sommes à la recherche de solutions pour résoudre ce
problème complexe. La majeure partie des efforts est axée sur l’optimisation du
matériel utilisé pour réduire sa consommation énergétique. Parallèlement, une
approche courante est également d’évaluer le rapport entre performance et
consommation de ressources. Dans certains cas, le développement et l’utilisation
de modèles de deep learning complexes et gourmands en ressources ne sont pas
tellement justifiés pour des tâches spécifiques. Par exemple, pour la prédiction
de tendances basées sur des données historiques simples, comme les fluctuations
de prix d’un produit, une régression linéaire ou un modèle de séries temporelles
classique pourraient être suffisants. Ce serait comme utiliser un bulldozer pour
planter une fleur alors qu’une simple pelle suffit. Faire appel à des architectures
profondes et coûteuses en énergie pour de telles tâches est excessif.
Le choix des données est également essentiel dans le processus de réduction de
consommation énergétique. Privilégier la qualité des données signifie se
concentrer sur des informations pertinentes, bien structurées et exemptes
d’erreurs ou de bruits. Lorsque l’on utilise des données de qualité, les modèles
peuvent souvent être formés plus rapidement et efficacement, car ils ne
« perdent pas de temps » à traiter des informations superflues ou incorrectes.
Ainsi, en mettant l’accent sur la qualité plutôt que sur la simple accumulation de
données, il est possible de réduire l’énergie nécessaire à l’entraînement. Il est
nécessaire également de s’interroger sur les applications des IA en question. Par
exemple, si une entreprise utilise une IA très sophistiquée pour optimiser la
disposition des articles sur une page web, destinée à une cible d’internautes bien
spécifique et limitée, tout cela pour obtenir un gain marginal d’engagement
utilisateur, on peut se demander si l’empreinte énergétique engendrée en vaut
réellement la chandelle. Ce genre de situation met en lumière le décalage entre la
consommation énergétique de certains projets d’IA et leur réelle valeur ajoutée
pour la société.
À l’inverse, et de manière assez paradoxale, les IA peuvent se révéler très
utiles dans la lutte contre le changement climatique. Par exemple, en analysant la
consommation d’énergie d’une ville en temps réel, l’IA peut nous aider à
optimiser la distribution d’électricité, réduisant ainsi les gaspillages (Stock et al.,
2021). Elle peut nous aider à affiner nos prévisions climatiques, en offrant ainsi
une meilleure préparation face à des événements météorologiques extrêmes36.
Grâce à l’IA, notre approche du traitement de l’eau peut s’améliorer, en détectant
rapidement les contaminants et en ajustant les traitements nécessaires (Ismail et
al., 2021). De même, l’IA peut introduire des innovations en agriculture pour
une production plus durable (Bhagat et al., 2022). Ces exemples, loin d’être
exhaustifs, illustrent comment, lorsqu’elle est employée avec discernement, l’IA
se révèle être un allié intéressant dans notre quête d’un avenir plus respectueux
de l’environnement. Comme toujours, lorsqu’il s’agit de nouvelles technologies,
il est essentiel de peser soigneusement leurs avantages face à leurs potentiels
inconvénients et dangers. L’utilisation des IA doit être judicieuse pour prévenir
une consommation énergétique excessive et éviter d’aggraver notre empreinte
environnementale.

2. LES ENJEUX MORAUX ET ÉTHIQUES DES IA


Les rapports de forces, les enjeux géopolitiques, les divergences de
conceptions de la vie privée, les usages potentiellement malveillants ou encore
l’impact des IA sur notre planète, sont tous des sujets qui posent des questions
morales évidentes. Mais pour s’assurer que la création et l’utilisation des IA
soient véritablement éthiques, nous devons d’abord clairement identifier et
comprendre nos valeurs et notre morale. Ainsi, quelques éléments de définition
s’imposent.

2.1. Définition de l’éthique et de la morale


Lorsque l’on parle d’éthique, on aborde souvent le sujet de la morale. Mais
comment distinguer ces deux concepts ? Bien qu’ils soient étroitement liés, une
distinction subtile existe entre eux. La morale englobe l’ensemble des valeurs et
des règles que l’on se fixe pour s’assurer que la société fonctionne bien.
L’éthique, de son côté, contribue à l’élaboration de cette morale. Elle désigne
une zone ou un espace de réflexion, qui permet de soulever les débats, cadrer les
actions pour in fine déterminer des normes morales. L’éthique est fondamentale
car elle stimule notre réflexion sur les valeurs morales essentielles à notre
société. Pour déterminer ce qui est bon ou juste, il est essentiel de se questionner
sur la morale sous-jacente que l’on souhaite valoriser, et ceci passe par des
questionnements éthiques.
Cependant, comme nous avons pu le constater, ce qui est complexe avec ces
questions, c’est qu’elles fluctuent grandement selon les cultures, les sociétés et
même les individus. Il n’y a fondamentalement pas de bonne réponse éthique. Il
y a des variations dans les conceptions éthiques d’un individu à un autre, qui
sont liées à des différences culturelles, des différences d’interprétation et de
sensibilité personnelle, politique ou idéologique, ou même dans certains cas, à
des différences d’époque. Par exemple, il y a eu une véritable évolution des
attitudes envers le travail des enfants ; ce qui était autrefois une pratique
acceptée et répandue est aujourd’hui largement condamnée dans nos sociétés. Ce
qui nous semble moral aujourd’hui ne l’était pas nécessairement hier et pourrait
être perçu différemment à l’avenir.
Si l’on souhaite définir une éthique de l’IA, il semble assez logique de
chercher à s’entendre sur les valeurs morales à privilégier. Or, la grande
difficulté est que ces valeurs ne sont pas uniformément partagées à travers le
monde. Par exemple, nous avons vu qu’il existait des différences fondamentales
entre pays collectivistes et individualistes, ce qui influence directement les
principes moraux valorisés. Moralement, les nations individualistes tendent à
privilégier les valeurs de liberté individuelle et de respect de la vie privée. En
revanche, dans les pays collectivistes, c’est l’intérêt général et le bien-être
collectif qui prédominent. Ces différences fondamentales influencent
directement la perception et la valorisation de certaines pratiques. De ce fait,
comme nous l’avons vu précédemment, l’usage intensif de la reconnaissance
faciale et l’exploitation des données personnelles pour assurer une sécurité
collective accrue ne suscitent pas les mêmes préoccupations éthiques en Chine
que dans les pays occidentaux.
Définir des guidelines éthiques à l’échelle mondiale autour de l’IA est un réel
défi, car les pays ne se fondent pas nécessairement sur les mêmes valeurs
morales. En outre, il existe également une pluralité de théories de l’éthique qui
peuvent entrer en contradiction, et cela même parfois au sein d’une même
culture.

2.2. Plusieurs théories de l’éthique


Il existe des théories de l’éthique qui peuvent nous aider à déterminer si une
action est morale ou non (Billier, 2014). Pour définir une éthique de l’IA, il
pourrait donc tout à fait être judicieux de s’appuyer sur ces théories bien établies.
Néanmoins selon la théorie adoptée, une même situation peut donner lieu à des
jugements différents, rendant la tâche plus complexe. On trouve principalement
trois grandes théories à considérer (voir Figure 39).
Figure 39. Trois grandes théories de l’éthique

Source : autrice

La première théorie éthique est la théorie du « conséquentialisme ». Selon cette


théorie, ce qui rend une action morale, c’est sa conséquence. Si deux actions
produisent le même résultat, elles sont jugées comme moralement équivalentes.
Ainsi, le défi de cette approche est de définir ce qu’est une « bonne »
conséquence. Le conséquentialisme soutient généralement que la meilleure
action est celle qui apporte le plus de bien à un maximum de personnes. C’est
une vision qui rappelle l’utilitarisme de John Stuart Mill, pour qui la meilleure
action est celle qui maximise l’utilité totale. On applique cette théorie, lorsque
l’on valorise moralement les actions qui optimisent le bonheur commun par
exemple. En somme, c’est le résultat qui compte.
La deuxième théorie éthique est la théorie de la « déontologie ». Avec cette
théorie on adopte une position normative vis-à-vis de la morale. La morale va
être évaluée selon des principes qui seront définis en amont et des normes
préétablies. Une action est ainsi considérée comme moralement juste si elle
respecte bien les règles prédéfinies. C’est exactement ce type de théorie qui est
appliquée lorsque l’on base notre morale sur des règles telles que les Dix
Commandements de la Bible ou la Déclaration des droits de l’homme et du
citoyen par exemple.
Enfin, la troisième théorie de l’éthique est la théorie de la « vertu ». Avec cette
théorie, c’est l’intention qui compte. Ainsi, pour évaluer si une action est morale
ou non, on ne regarde ni la conformité de l’action à des règles, ni les
conséquences de cette action, mais plutôt qui est la personne qui a réalisé
l’action en question et quelles sont ses intentions. Si une personne considérée
comme vertueuse avait agi de la même façon, alors cette action serait considérée
comme moralement juste. Par exemple les gentils super-héros qui tuent les
méchants dans les films réalisent une action moralement juste d’après la théorie
de la vertu, car ils le font avec la bonne intention de sauver les citoyens, malgré
le principe qui stipule que « tuer, c’est mal ».
L’existence de ces trois théories de l’éthique montre à quel point il peut être
difficile d’évaluer le caractère moral d’une action. Il n’est pas évident de définir
une théorie qui serait plus valable que les autres et cela ne serait d’ailleurs pas
forcément souhaitable. En y réfléchissant, vous verrez que dans notre société
nous nous appuyons un peu sur les trois théories selon les contextes. Par
moments, nous nous en tenons strictement aux règles, comme le préconise la
déontologie. Mais parfois nous évaluons les conséquences d’une action, en
accord avec le conséquentialisme, ou nous nous intéressons au contexte et aux
intentions de l’acteur, comme le suggère la théorie de la vertu. C’est précisément
pour cette raison que notre droit français inclut la notion de jurisprudence,
permettant de considérer ces différentes facettes dans l’appréciation morale d’un
acte.
La diversité des approches éthiques, qui peuvent parfois être contradictoires,
rend complexe la définition précise d’une éthique de l’IA. De plus, même si
nous parvenions à un consensus sur une théorie éthique en particulier, il
existerait toujours des divergences sur les valeurs à privilégier, qu’il s’agisse de
justice, sécurité, vie privée, liberté, égalité, équité, etc. Par exemple, l’UNESCO
recommande le respect de quatre valeurs fondamentales à valoriser dans le
développement des IA : (1) respecter les droits de l’homme et la dignité
humaine, (2) vivre dans des sociétés pacifiques, (3) assurer la diversité et
l’inclusion, et (4) favoriser un environnement et des écosystèmes qui
prospèrent37. En contraste, d’autres organismes ou gouvernements peuvent
prioriser des aspects comme la compétitivité économique, l’innovation
technologique, ou la souveraineté numérique, qui bien que compatibles avec les
principes de l’UNESCO, peuvent dans certains contextes s’opposer ou détourner
l’attention de préoccupations éthiques plus universelles. Ces variations dans les
valeurs à privilégier rendent d’autant plus délicat l’établissement de principes
éthiques pour l’IA.

2.3. Les dilemmes moraux


Se questionner sur l’impact de ces différentes théories de l’éthique et sur la
morale à adopter est essentiel si l’on aspire à établir des directives ou guidelines
pour un futur développement éthique de l’IA. Cependant, ces questionnements
ne visent pas uniquement à définir des normes que les acteurs de l’IA devraient
respecter. Au-delà de la définition de règles pour les concepteurs des
intelligences artificielles, il a également été envisagé d’intégrer ces principes et
raisonnements éthiques directement au sein des algorithmes des intelligences
artificielles. En effet, les IA sont des systèmes automatiques qui peuvent
recommander, initier des actions ou prendre des décisions de façon autonome.
Est-il alors possible de définir des éthiques a priori à intégrer dans le système,
de sorte que les IA soient capables de prendre automatiquement des décisions
éthiques et effectuer des arbitrages moraux ?
Un exercice de pensée se révèle assez utile et pertinent pour explorer ces
enjeux : la confrontation aux dilemmes moraux. Ces dilemmes sont des
situations dans lesquelles les théories de l’éthique entrent en conflit sans
qu’aucune ne semble pourtant la plus évidente. En mettant provisoirement de
côté les contraintes techniques actuelles, les difficultés liées à l’interprétation ou
au contexte, et les effets indésirables non prévus, on pourrait tout à fait imaginer
qu’avec une morale et une orientation éthique clairement établies, l’intégration
de ces principes dans les intelligences artificielles pour une application
automatique serait possible. Cependant, le casse-tête émerge lorsqu’aucune
orientation morale n’est nettement perceptible et que les théories éthiques
s’affrontent. C’est dans de telles situations d’ambiguïté que l’analyse des
dilemmes moraux devient particulièrement pertinente.
Un dilemme très connu est le dilemme de Heinz, développé par Lawrence
Kohlberg dans les années 1950 (Kohlberg, 1958). Voici ce que dit ce dilemme.
Une femme est atteinte d’une maladie très grave et elle ne peut survivre que si
elle prend un médicament développé par un pharmacien qui vend l’antidote
2 000 €. Son mari Heinz qui n’a pas beaucoup de moyens va voir toutes les
personnes de son entourage pour récolter suffisamment d’argent mais il ne
réussit à réunir que 1 000 €. Il ne peut donc pas payer entièrement le médicament
et le pharmacien refuse de lui vendre à ce prix, même lorsque Heinz lui propose
de rembourser la différence plus tard. Que devrait faire Heinz ? Laisser mourir
sa femme ou voler le médicament en cassant la vitrine du pharmacien pendant la
nuit ? Je vous propose de réfléchir quelques instants à ce dilemme. Que feriez-
vous à la place de Heinz ? Quelle action est l’action morale à réaliser ?
Évidemment il n’y a pas de bonne ou mauvaise réponse à ce dilemme. Les
individus vont prendre des décisions bien différentes et choisir certains types de
morales selon leur sensibilité, leur éducation ou culture notamment. Ce dilemme
oppose typiquement deux visions. D’un côté celle liée à la déontologie dans
laquelle on valorise le respect des lois. Il est interdit de voler, donc ce n’est pas
moral de casser la vitrine pour voler l’antidote. D’un autre côté on trouve des
éthiques plutôt liées à la vertu dans laquelle on valorise le souci de préserver la
vie des êtres humains. Dans cette vision, il est plus moral de ne pas laisser la
femme de Heinz mourir et donc de faire ce qu’il faut pour cela.
Un autre dilemme moral très connu est le dilemme du tramway ou Trolley
problem en anglais (voir Figure 40), qui confronte les individus à des situations
et dilemmes éthiques assez subtiles et parfois complexes (Thomson, 1976,
1985). Initialement développée dans les années 1960 (Foot, 1967), cette
expérience propose le scénario suivant : un tramway, dont les freins sont
défaillants, avance inexorablement sur sa voie sur laquelle cinq ouvriers
s’affairent à des réparations. Un employé a la possibilité d’actionner un levier
qui permet de rediriger le tramway. S’il choisit de ne pas l’activer, le tramway
percutera et tuera les cinq ouvriers. S’il décide de l’activer, le tramway sera
redirigé vers une deuxième voie mais sur laquelle se trouve un autre ouvrier, seul
cette fois-ci, qui sera également mort sur le coup. Que feriez-vous à la place de
l’employé ? Activez-vous le levier ?
Figure 40. Le dilemme du tramway
Source : Original : McGeddon Vector : Zapyon, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-
sa/4.0>, via Wikimedia Commons

Tout comme pour le dilemme de Heinz, on peut constater avec ce dilemme du


tramway, que plusieurs choix sont éthiquement justifiables ou envisageables. Il
est possible de considérer le nombre de personnes qui seront tuées et essayer de
le minimiser, si l’on se base sur la théorie du conséquentialisme ou de
l’utilitarisme. Dans ce cas il sera plus juste et moral d’activer le levier, puisque
c’est la conséquence qui compte : minimiser le nombre de personnes tuées. À
l’inverse, il est également possible de considérer que prendre une décision de vie
ou de mort sur des individus n’est pas un acte moral. La déontologie nous dit
qu’il ne faut pas causer activement la mort d’une personne. Dès lors, la décision
serait de ne pas toucher au levier. Ce dilemme a gagné en complexité avec les
années. Les chercheurs ont introduit diverses alternatives, modifiant également
le « type » d’individus présents sur les rails. Faut-il privilégier les personnes
âgées ou les enfants ? Les chômeurs ou les travailleurs ? Les hommes ou les
femmes ? Et ainsi de suite. Selon les vertus valorisées dans la théorie de la vertu,
les choix peuvent là aussi être variés. Par exemple, la compassion pourrait
entraîner le désir de sauver un enfant ou une personne fragile par rapport à un
adulte en pleine santé, alors que la justice pourrait pousser à éviter de faire des
choix fondés sur l’âge ou d’autres caractéristiques.
Ce dilemme a récemment été adapté au contexte de la voiture autonome (Awad
et al., 2018). Bien qu’il s’agisse d’un simple exercice de pensée, il demeure
extrêmement pertinent pour ces IA qui doivent être capables de prendre des
décisions de déplacement en toute autonomie dans leur environnement.
Imaginons une situation dans laquelle une personne se trouve à bord d’une
voiture 100 % autonome (voir Figure 41). À cause d’un problème technique, la
voiture se retrouve malheureusement dans l’incapacité de freiner. Plusieurs
scénarios sont alors envisageables : soit elle maintient sa trajectoire et percute un
mur, tuant ainsi le passager à bord, soit elle vire à gauche et heurte une personne
âgée qui traversait au feu rouge.
Figure 41. Le dilemme du tramway appliqué au contexte de la voiture autonome
Source : https://www.moralmachine.net/hl/fr

Que faire dans ce scénario ? Quelle est la décision la plus juste, la plus morale
ou la plus éthique ? Est-ce que la voiture autonome doit-elle toujours privilégier
l’usager ? Doit-elle privilégier la personne la plus vulnérable, donc la personne
âgée ? Ou au contraire doit-elle considérer que comme la personne âgée traverse
au feu rouge elle ne « mérite » pas une telle faveur ? Il n’y a pas de réponse
unique à ces questions. Tout dépend de nos considérations personnelles et de ce
que l’on valorise. Le MIT a d’ailleurs créé une plateforme en ligne intitulée The
Moral Machine38 pour que les gens puissent voter pour les choix qu’ils feraient
face à de multiples dilemmes. Ces expérimentations permettent de constater
qu’il n’existe pas de consensus éthique sur ces questions, et ce, pour l’ensemble
des dilemmes proposés ; il y a une réelle diversité d’opinions et de
positionnements moraux.
Ces dilemmes moraux mettent en lumière la complexité inhérente aux
décisions morales et arbitrages éthiques. Bien qu’hypothétiques, ce sont des
exercices intellectuels intéressants au vu de l’autonomie croissante des machines
et de leur place de plus en plus importante dans nos vies. De telles abstractions
sont utiles pour questionner nos attentes vis-à-vis de l’intelligence artificielle.
Par exemple, est-il réellement souhaitable qu’elles effectuent de tels arbitrages,
alors que nous-mêmes ne possédons pas de réponses claires à ces dilemmes ?
2.4. Trois approches pour déléguer le raisonnement éthique à une IA
Les IA sont des systèmes autonomes, qui réalisent des actions ou prennent des
décisions de façon automatique grâce à des algorithmes entraînés sur des
millions voire des milliards de données. Compte tenu de la nature de ces IA, les
chercheurs se sont interrogés sur la possibilité d’automatiser un raisonnement
éthique au sein de ces systèmes, en développant ce que l’on appelle des « agents
artificiels éthiques ». L’idée serait de concevoir un système capable d’évaluer de
manière autonome les conséquences morales, éthiques et sociétales de ses
actions et décisions. Autrement dit, cela reviendrait à déléguer l’éthique à nos
IA. Cela est-il possible et concevable ? Et surtout, est-ce vraiment bien
raisonnable ?
Pour mettre en place des agents artificiels éthiques, trois approches principales
(voir Figure 42) ont été mises en avant par Virginia Dignum, dans son livre
Responsible Artificial Intelligence: How to develop and use AI in a responsible
way (2019).
Figure 42. Trois approches pour définir des principes moraux dans des IA

Source : autrice

On trouve tout d’abord l’approche top-down, caractérisée par une évaluation


automatique de l’éthique des décisions à partir de règles préétablies par les êtres
humains. Dans cette approche, il est impératif que l’IA respecte strictement les
règles prédéfinies et que ses actions soient autorisées légalement. Cependant,
cette méthode présente une mise en œuvre complexe. Quelles règles précises
devraient être définies ? Ne pourraient-elles pas engendrer des conséquences
inattendues ? Est-il réellement possible de distiller l’éthique en un ensemble de
règles ou de lois ? Isaac Asimov, avec ses lois de la robotique, avait démontré
dès les années 1950 qu’il n’est pas si simple d’énoncer des règles fondamentales
qui préviennent efficacement tous les dangers ou problèmes potentiels.
Ensuite on trouve l’approche bottom-up, dans laquelle les règles sont définies à
partir des cas individuels. Au lieu de suivre des règles fixées par les humains en
amont, l’IA va elle-même les déduire à partir d’une multitude de cas analysés.
Ainsi, l’agent artificiel, ayant observé suffisamment de réponses d’autres
individus dans des situations similaires, peut déterminer quelles actions et
décisions sont éthiquement appropriées. Cette approche se fonde sur la théorie
de la « sagesse de la foule » (Surowiecki, 2004). Elle sous-entend que l’on
accepte une action comme étant éthique si elle est socialement acceptée.
Autrement dit, ce que la majorité fait en moyenne devient la norme éthique.
C’est un mécanisme similaire à celui par lequel les enfants apprennent les
comportements éthiques dès leur plus jeune âge, en discernant ce qui est perçu
comme bon ou mauvais par les autres et en observant leurs actes. Cependant,
comme nous le savons, si ces enfants commencent à avoir de mauvaises
fréquentations, cela risque de ne plus très bien fonctionner.
C’est pourquoi une troisième approche est souvent préconisée : l’approche
« hybride », qui combine les deux autres approches, à savoir l’approche top-
down et bottom-up. Cette approche se rapproche davantage de la manière dont
l’apprentissage éthique opère chez les humains. En effet, les règles
communiquées par la famille (approche top-down) et les expériences
personnelles déterminant ce qui est bien ou mal (approche bottom-up)
s’associent pour forger l’éthique et la morale individuelles. On cherche, avec
cette approche hybride, à se rapprocher de cette façon d’apprendre.
Ces trois approches ont été théorisées dans l’hypothèse d’un développement
d’agents artificiels éthiques qui seraient capables d’évaluer les conséquences
morales de leurs actions. Cependant, est-il véritablement souhaitable de
développer de telles IA ? L’intelligence artificielle doit-elle vraiment émettre des
jugements moraux en notre nom ? Est-elle réellement apte à construire des
évaluations éthiques qui nous conviennent ? Comment les IA peuvent-elles
discerner quelles morales nous valorisons alors que nous-mêmes éprouvons
parfois de la difficulté à les définir clairement ? Si nous confions l’évaluation de
l’éthique aux IA, qui endosse alors la responsabilité des actions de celles-ci ?
L’IA doit-elle être responsable et posséder une personnalité juridique ? Ces
questions ont pu faire l’objet de nombreux débats houleux ces dernières années.

2.5. La question de la responsabilité des IA


Nous confions de nombreuses tâches aux intelligences artificielles, qui
fonctionnent de manière autonome. Plus nous déléguons des activités, plus la
question de la responsabilité se pose. Imaginons que vous utilisiez une IA pour
établir un diagnostic médical. Plus besoin de votre médecin. Vous possédez une
machine à la maison qui permet, avec des taux d’erreur proches de zéro,
d’évaluer votre santé et d’effectuer des bilans médicaux. Imaginons maintenant
qu’un jour, après des années d’utilisation sans encombre, cette machine finisse
par poser un mauvais diagnostic, engendrant des conséquences importantes sur
votre santé. Qui serait alors tenu responsable de ces conséquences ? Le
développeur de l’algorithme ? Le fournisseur des données qui ont entraîné
l’algorithme ? Vous, l’utilisateur, qui avez choisi d’utiliser la machine et de lui
accorder votre confiance ? L’entreprise qui commercialise la machine ? Les
développeurs des capteurs sensoriels utilisés pour mesurer votre état de santé ? Il
n’y a pas de réponse évidente et il est primordial de se confronter à ce type de
questions pour mieux encadrer et répartir la responsabilité des actions de ces
machines de plus en plus autonomes.
Ces questions ont été assez prégnantes dans le contexte du développement des
voitures autonomes. En cas d’accident, à qui revient la faute ? Le constructeur de
la voiture ? Le constructeur du logiciel et de l’IA ? L’utilisateur de la voiture ?
Les autorités qui ont permis la libre circulation de la voiture ? Plus nous
déléguons de tâches aux IA, plus la question de la responsabilité se pose,
d’autant plus si l’on envisage de déléguer l’évaluation éthique des décisions et
actions prises en autonomie. Il est clair que la question de la responsabilité est en
lien étroit avec l’éthique. L’éthique concerne l’étude de la morale et des valeurs.
La responsabilité, elle, concerne justement l’application concrète de ces
évaluations éthiques, en tenant compte de diverses autres dimensions, y compris
les aspects légaux, sociétaux et culturels (Dignum, 2019).
Certains experts estiment qu’il serait judicieux de déléguer des responsabilités
aux machines et même de leur conférer un statut juridique distinct. En France,
l’avocat Alain Bensoussan a fondé l’Association du droit des robots pour aller
dans ce sens39. Il soutient l’idée que les IA devraient posséder une personnalité
juridique. Un peu à la manière dont nous avons créé des personnalités morales
des entreprises, on pourrait l’envisager pour des algorithmes et des IA. Ces
personnalités juridiques pourraient d’ailleurs communiquer directement entre
elles et régler les litiges elles-mêmes, en analysant en quelques secondes les
fautes respectives et en gérant l’indemnité sans intervention humaine. C’est
précisément ce qu’imagine Gaspard Kœnig dans son livre La fin de l’individu
(Kœnig, 2019). Dans un scénario qu’il propose, en cas de collision entre deux
voitures autonomes, on pourrait imaginer que les systèmes informatiques des
voitures engageraient directement une conversation entre eux afin d’évaluer et
de responsabiliser le préjudice causé, avec l’avantage de ne pas être altérés par la
mauvaise foi ou le mensonge. Étant donné qu’il est impossible de punir un
algorithme en l’envoyant en prison, la procédure se focaliserait principalement
sur des questions d’indemnisation, et l’on pourrait d’ailleurs imaginer que les
entreprises d’intelligence artificielle mettent en place des fonds spéciaux pour
couvrir ces incidents (Kœnig, 2019).
Dans la lignée de cette idée d’instaurer des personnalités juridiques aux IA, le
Parlement européen a voté une résolution en 201740, comportant des
recommandations sur la nécessité de créer un statut juridique spécial pour les
robots. Cette résolution a suscité de très vives réactions parmi les spécialistes,
considérant qu’elle est en total décalage avec les capacités réelles des IA. Luc
Julia a déclaré à ce sujet qu’il n’y a « pas d’intelligence, de remise en question
ou de sens critique des machines, et que toutes les responsabilités et les
défaillances incombent à l’homme » (Julia, 2019, p. 106). Des centaines
d’experts ont par ailleurs signé une lettre ouverte pour dénoncer cette résolution
du Parlement. Bien que la question de la responsabilité soit complexe, il reste
qu’elle sera toujours in fine, rattachée aux êtres humains impliqués. Déléguer
intégralement cette responsabilité n’est ainsi pas la solution la plus raisonnable.
D’autant que, rappelons-le, derrière chaque IA, bien qu’elle soit autonome, il y a
toujours un être humain qui l’a développée, lui a fourni des données
d’entraînement, etc.
Cette quête de déterminer et de comprendre en profondeur la responsabilité des
IA dans divers contextes ouvre incontestablement un dialogue fondamental au
sujet de l’encadrement légal, concernant la progression et l’implémentation de
ces intelligences artificielles.

3. GOUVERNANCE DES DONNÉES ET RÉGLEMENTATION DE L’IA


3.1. L’importance de la législation
Un consensus se dégage auprès de nombreux experts quant à la nécessité de
davantage légiférer le développement et les usages des intelligences artificielles.
À l’heure actuelle, de trop nombreux vides juridiques subsistent, souvent dus au
fait que la loi peine à suivre le rythme des développements technologiques et des
évolutions des pratiques. Même Sundar Pichai, le PDG de Google, a souligné la
nécessité de légiférer. Il affirme, sur ce point, que des entreprises comme Google
« ne peuvent pas simplement construire de nouvelles technologies prometteuses
et laisser les forces du marché décider de la manière dont elles seront
utilisées41 ». Dans son livre L’intelligence artificielle en procès, Yannick
Meneceur dresse un plaidoyer pour une réglementation internationale et
européenne de l’IA. Il insiste sur l’importance d’établir un cadre juridique pour
l’intelligence artificielle pour en tirer le meilleur et répondre aux enjeux et défis
soulevés par ces technologies (Meneceur, 2020).
Cette volonté de réglementer et d’encadrer l’IA à grande échelle n’est pas
nouvelle. Depuis plusieurs années, diverses tentatives de formalisation de règles
et de principes généraux ont été entreprises afin de mieux encadrer l’intelligence
artificielle. Par exemple, dès 2010 l’Engineering and Physical Science Research
Council (EPSRC), a réuni des experts de différentes disciplines, comme les
sciences de l’ingénieur, les sciences sociales, le droit ou les arts, en vue de
définir des principes de la robotique (Walsh, 2018). Ils proposent les cinq
principes suivants :
1.Les robots sont des outils à usages multiples. Les robots ne doivent pas être
conçus uniquement ou principalement pour tuer ou blesser des humains, sauf
dans l’intérêt de la sécurité nationale.
2.Les humains, et non les robots, sont des agents responsables. Les robots
doivent être conçus et exploités dans la mesure du possible dans le respect
des lois existantes et des droits et libertés fondamentaux, y compris la vie
privée.
3.Les robots sont des produits. Ils doivent être conçus en utilisant des
processus qui garantissent leur sûreté et leur sécurité.
4.Les robots sont des artefacts manufacturés. Ils ne doivent pas être conçus de
manière à exploiter les utilisateurs vulnérables, mais leur nature de machine
doit être transparente.
5.La personne ayant la responsabilité légale d’un robot doit être désignée.
On peut difficilement être en désaccord avec ces principes qui semblent être
empreints de bon sens. Néanmoins, à l’image des lois de la robotique proposées
par Asimov, ces principes laissent un grand nombre de questions en suspens.
Lorsque les systèmes agissent et prennent des décisions en autonomie, comment
l’être humain peut-il porter l’entière responsabilité de ces systèmes ? Ces
principes ne permettent pas, par exemple, de répondre aux interrogations
actuelles sur la responsabilité dans la cadre de l’utilisation de voitures
autonomes. En cas d’accident, si ce n’est pas la voiture autonome qui est
responsable, qui est alors responsable ? Par ailleurs, d’autres tentatives similaires
ont vu le jour. En 2016, par exemple, le British Standards Institution a publié le
BS 8611, un guide de 28 pages décrivant comment développer des robots
éthiques42.
Plus récemment, le Partnership on AI43, lancé par des géants du Web tels que
Google, Amazon, Facebook et Microsoft, a également vu le jour pour fournir des
recommandations générales (Hern, 2016). Dans les pratiques mises en avant, ils
proposent des engagements symboliques du type : « Nous nous engageons à
mener des recherches ouvertes et à dialoguer sur les implications éthiques,
sociales, économiques et juridiques de l’IA » ou encore : « Nous nous efforçons
de créer une culture de coopération, de confiance et d’ouverture parmi les
scientifiques et les ingénieurs en IA pour nous aider à mieux atteindre ces
objectifs. » Toutefois, ici encore, nous sommes en présence de principes
relativement généraux, qui manquent de précision et de contraintes applicatives.
Bien que difficiles à contester de par leur vaste portée et universalité, ces
principes se révèlent peu utiles en termes d’application pratique, ce qui offre une
latitude considérable dans leur interprétation et mise en œuvre.
Au total, Yannick Meneceur recense 126 cadres éthiques de ce type à travers le
monde (Meneceur, 2020) et, depuis, leur nombre s’est encore multiplié. Il s’agit
de guides éthiques relatifs au développement des intelligences artificielles qui
listent des principes plus au moins généraux. Parmi les 126 identifiés, on
constate que 39 d’entre eux ont été élaborés par le secteur privé, 13 par la société
civile, qui inclut les organisations non gouvernementales comme Amnesty
International par exemple, 15 par les organisations internationales, telles que les
Nations unies, l’OCDE, le G20, l’Union européenne, l’UNESCO ou le Conseil
de l’Europe, 10 par les universités, 25 par les autorités nationales et 24 qui sont
multipartites avec une implication souvent importante des entreprises privées
(voir Figure 43). Il est donc notable qu’une grande partie de ces textes éthiques
relatifs à l’IA émane principalement du secteur privé. Évidemment, l’influence
prépondérante du secteur privé dans l’élaboration des principes éthiques de l’IA
peut susciter des inquiétudes quant à la capacité de ces directives à véritablement
servir l’intérêt général, étant donné que les entreprises peuvent être tentées de
prioriser leurs intérêts économiques au détriment de considérations éthiques plus
larges.
Figure 43. Cadres éthiques de l’IA, développés à travers le monde

Source : autrice, à partir des chiffres issus du livre de Yannick Meneceur, L’intelligence artificielle en
procès (2020)

Un autre problème que l’on peut noter avec cette diversité de cadres éthiques
conçus à travers le monde, concerne la multiplicité des concepts qu’ils abordent :
transparence, traçabilité, explicabilité, accessibilité, impartialité, équité, intégrité,
sécurité, bien social, consentement, vie privée, parmi tant d’autres. Cela génère
un corpus sensiblement hétérogène qui, quelque part, rend assez difficile une
hiérarchisation des principes, qui peuvent parfois être incompatibles. Nous
sommes donc face à une prolifération des éthiques, ce qui ne simplifie pas les
choses.
De plus, ces guides éthiques ne doivent pas nous détourner de la nécessité de
légiférer. Ils ne doivent pas donner le sentiment qu’ils permettent de répondre
correctement aux enjeux liés au développement de l’intelligence artificielle. En
effet, l’éthique est essentielle pour se poser des questions sur les valeurs et la
morale souhaitées. En revanche, le droit et la législation permettent quant à eux,
de contraindre la bonne application de cette éthique. L’éthique, en elle-même,
n’est pas suffisante pour protéger les individus et garantir que les acteurs
agissent correctement. La législation est indispensable. De par sa nature flexible
et souple, l’éthique requiert un cadre juridique qui concrétise son application.
Ainsi, l’autorégulation n’est absolument pas suffisante, et le marché de
l’intelligence artificielle ne s’autorégulera pas simplement grâce à des guides
éthiques.
Pourtant, certains s’opposent à l’idée d’une législation ferme de l’intelligence
artificielle, notamment en avançant divers arguments comme le risque de
diminuer la compétitivité ou encore de freiner la recherche et les avancées dans
le domaine. Ces craintes, bien que compréhensibles, ne se confirment pas
toujours dans la pratique. En effet, si l’on considère l’impact du RGPD par
exemple, on peut constater que loin de freiner la recherche, cette réglementation
pourtant contraignante, a stimulé l’innovation dans le domaine de la protection
des données. Elle a incité les entreprises à développer de nouvelles solutions
respectueuses de la vie privée, ouvrant ainsi de nouveaux marchés et avantageant
les acteurs qui adoptent ces pratiques. Par exemple, IBM a lancé des outils de
gestion des données qui aident les entreprises à se conformer au RGPD tout en
utilisant l’IA44. En outre, le respect de ces règles permet d’engendrer un climat
de confiance avec les consommateurs et d’accroître la crédibilité des entreprises,
qui est un élément crucial pour favoriser l’adoption des technologies et peut
avoir des retombées très positives pour les entreprises45. Concernant l’IA, si la
législation exigeait, par exemple, le développement exclusif de modèles
d’intelligence artificielle qui soient explicables, cela pourrait contraindre les
chercheurs à délaisser des voies actuellement prisées pour explorer de nouvelles
techniques, ce qui peut tout à fait être une bonne chose, en particulier lorsque
l’on connaît les risques des IA de type « boîte noire ». D’ailleurs, cette
préoccupation concernant l’opacité des algorithmes de deep learning, a déjà
conduit à un intérêt renouvelé pour des nouvelles méthodes, avec notamment les
méthodes dites « hybrides » qui combinent l’efficacité du deep learning avec
d’autres formes d’IA pouvant être auditables et compréhensibles. Des solutions
innovantes pour adresser cet enjeu ont également vu le jour telles que la
plateforme AI Explainability 360 d’IBM qui propose des outils permettant de
mieux comprendre et interpréter les prédictions des modèles d’IA46. Ainsi, même
si la législation peut imposer des défis qui paraissent pénalisants au départ, les
retombées positives, telles que l’encouragement à la diversification de la
recherche en IA et à des solutions innovantes ou encore la création d’un climat
de confiance, peuvent en définitive surpasser les inconvénients perçus, en
propulsant le secteur vers des avancées plus robustes et socialement
responsables. Les universités et les centres de recherche se sont d’ailleurs
progressivement adaptés aux enjeux actuels en cherchant des moyens de faire
progresser l’IA tout en respectant les exigences éthiques. Des projets de
recherche financés par l’Union européenne, comme le HumanE AI Network,
visent à aligner l’IA avec les valeurs et les normes éthiques européennes47. La
réglementation de l’intelligence artificielle, lorsqu’elle est adéquatement conçue
et mise en œuvre, ne se contente donc pas de protéger les consommateurs ; elle
s’avère être un vecteur d’innovation et un stimulant pour la compétitivité des
entreprises. Cette dynamique est illustrée par « l’hypothèse de Porter »,
initialement formulée dans le contexte environnemental mais tout aussi
pertinente pour l’IA (Porter, 1991). Selon cet argument économique, des
réglementations rigoureuses ne réduisent pas forcément la compétitivité ; elles
peuvent en réalité inciter les entreprises à innover et à développer de nouvelles
technologies et pratiques commerciales. Évidemment la réalité n’est pas toujours
aussi simple, et parfois cette win-win situation ne s’observe pas. Cette hypothèse
a d’ailleurs été validée dans certains contextes mais aussi invalidée dans d’autres
contextes (Wagner, 2004). Il est donc essentiel que les autorités fassent en sorte
de fournir un cadre qui permet de valider l’hypothèse, en mettant en place les
régulations appropriées pour encadrer le développement d’IA responsables tout
en favorisant l’innovation et la compétitivité plutôt que de la freiner. À ce titre,
on observe que beaucoup de contraintes et cadres juridiques présents dans
d’autres secteurs n’ont en réalité nullement nuit à la recherche, à l’exemple de la
médecine ou de la biométrie, deux domaines caractérisés par des régulations
importantes. Selon Yannick Meneceur, il faut suivre ce qui a déjà été fait dans
d’autres domaines. Si l’on regarde autour de nous, il est évident que tous les
produits que nous utilisons suivent des règles strictes, qu’il s’agisse des
médicaments, des aliments ou même des appareils ménagers. La régulation est
essentielle pour éviter les risques et les dérives possibles. À ce sujet, Yannick
Meneceur exprime son étonnement, voire son inquiétude, quant à l’acceptation
collective de régulations non contraignantes dans le domaine de l’IA, alors
même que notre quotidien est imprégné de législations, « des couverts jetables,
aux jouets confiés à nos enfants » (Meneceur, 2020, p. 225). Pour lui, prétendre
que l’éthique est l’outil principal permettant de concilier innovation et
responsabilité sociétale est hautement problématique. Au contraire, c’est
l’absence de régulation qui crée de l’incertitude et potentiellement un manque de
confiance dans les acteurs en jeu.
Précisons néanmoins que le domaine de l’IA n’est pas non plus un no man’s
land juridique, puisqu’il existe déjà des cadres légaux plus larges, susceptibles
d’influencer le développement et l’usage de l’IA. Des traités, tels que la
Convention européenne des droits de l’homme ou la Charte européenne des
droits fondamentaux, intègrent des principes et des règles qui peuvent déjà
s’appliquer au numérique et à l’intelligence artificielle (Meneceur, 2020). Le
RGPD, qui vise à protéger les données personnelles des citoyens européens,
affecte inévitablement les développements dans le domaine de l’IA. Toutefois,
ces cadres juridiques ne sont pas suffisants pour traiter l’ensemble des enjeux
éthiques posés par la conception et l’utilisation d’algorithmes d’intelligence
artificielle dans notre société. Une réponse juridique plus pointue et spécifique
est nécessaire. Aujourd’hui, l’Europe s’empare activement du sujet, avec
notamment le fameux EU AI Act, qui a été voté en 2023, et qui est une première
étape importante dans la législation des intelligences artificielles48.

3.2. Quels types de cadre légal faut-il envisager ?


Il est clair qu’une législation et qu’un encadrement juridique du
développement et de l’utilisation des IA s’imposent. Cependant, lorsqu’il est
question de légiférer sur des usages ou des activités, diverses options sont
envisageables.
En premier lieu, on trouve le développement de lois et de règlements inscrits
dans le Code pénal des différents pays. Toutefois, il est probable qu’en matière
d’IA, chaque nation élabore sa propre législation, pouvant potentiellement entrer
en contradiction avec celle d’autres pays. Cette disparité législative
internationale pourrait engendrer des conflits juridictionnels et des zones
d’ombre, créant ainsi un environnement instable et incertain pour les
développeurs et utilisateurs d’IA, qui pourraient être confrontés à des normes
différentes voire contradictoires selon les territoires. Par conséquent, il
semblerait judicieux d’établir des législations à l’échelle internationale afin de
procurer un cadre juridique cohérent et étendu, encadrant les pratiques à travers
le monde. Le magistrat français, Yannick Meneceur plaide en faveur de
l’établissement d’accords internationaux afin de mieux encadrer les
développements et usages des IA (Meneceur, 2020). De tels accords seraient
régis par le droit international, à l’instar de la convention de Vienne, qui codifie
les relations juridiques entre presque tous les États du monde.
Une autre possibilité pour réguler l’IA consiste à la mise en place de
certifications. Le principe est d’attester la conformité d’un produit ou service à
un certain nombre de règles et de normes, octroyant ainsi une certification ou,
dans certains cas, un label pour une période déterminée. Les certifications, en
instaurant un climat de confiance, permettent aux consommateurs d’être
informés des qualités et propriétés du produit consommé, à travers un label ou
un logo facilement identifiable et reconnaissable. Ce mécanisme est déjà en
vigueur dans divers secteurs, comme celui de l’alimentaire avec notamment les
labels bio, l’élevage en plein air, ou encore les AOP. De la même façon nous
pourrions tout à fait envisager de certifier et labelliser des algorithmes
d’intelligence artificielle. Dans l’aviation c’est d’ailleurs déjà un peu le cas,
puisque les systèmes algorithmiques développés pour le pilotage automatique
des avions font évidemment l’objet d’un contrôle rigoureux et d’une certification
avant leur mise sur le marché. On pourrait tout à fait imaginer étendre ce
principe à d’autres types d’algorithmes comme ceux utilisés dans le cadre des
réseaux sociaux ou sur les sites marchands par exemple. Des institutions
indépendantes pourraient être chargées de tester et valider les algorithmes d’IA,
pour s’assurer qu’ils répondent bien à un ensemble de critères, tant dans leur
conception que dans leurs applications. Non seulement cela permettrait aux
entités de se distinguer, mais cela protégerait également le consommateur en lui
offrant plus de transparence. La certification pourrait à la fois porter sur la
conception de l’IA, les données utilisées, ainsi que sur le code informatique
déployé pour développer l’algorithme. Au niveau européen, des groupes
d’experts de la Commission européenne ont commencé à travailler sur le sujet
afin de poser les bases pour le développement d’un label « IA de confiance ».
D’autres initiatives en faveur de la certification sont également en marche,
notamment le programme Ethics Certification Program for Autonomous and
Intelligent Systems de l’IEEE, l’institut des ingénieurs en électricité et en
électronique, une association non lucrative œuvrant pour le développement de
normes dans ce domaine49. Plusieurs associations en France travaillent
activement sur ce sujet, comme l’association Labelia Labs par exemple, dont le
projet de label d’« IA responsable et de confiance » a été récemment récompensé
par l’association Data for Good50.
Cependant, pour certifier des algorithmes, il faut être capable de les auditer,
une tâche loin d’être simple, surtout pour ce qui est des algorithmes de deep
learning, qui sont de véritables boîtes noires. Des outils sont actuellement en
cours de développement pour surmonter cet obstacle. Parmi eux, on trouve
notamment le AI Fairness 360 Open Source Toolkit51 développé par IBM pour
identifier les biais algorithmiques, l’outil What-If52 développé par Google afin
d’évaluer la performance d’un modèle, ou encore l’outil Audit AI53 disponible en
open source sur GitHub, qui vise à atténuer les corrélations fallacieuses et
potentiellement discriminatoires dans les modèles (Meneceur, 2020).
D’autres outils, comme la matrice éthique54 développée par l’ORCAA (O’Neil
Risk Consulting and Algorithmic Auditing), peuvent également être utilisés pour
interroger les conséquences potentielles des algorithmes développés. En
s’inspirant du modèle actuel imposé par le RGPD, les entreprises pourraient être
contraintes à mener des études d’impact afin d’évaluer les risques potentiels et
les répercussions des algorithmes et solutions d’IA sur différents aspects comme
les droits de l’homme par exemple. Plusieurs éléments pourraient être évalués et
les guides éthiques existants peuvent être tout à fait utiles pour identifier les
points sensibles et les risques à considérer. Concernant la conduite d’audits des
IA, des cabinets d’audit, comme Accenture55 ou PwC56, souhaitent s’emparer de
ce sujet, puisqu’ils ont plusieurs fois annoncé leur volonté d’auditer les
algorithmes pour les entreprises.
Enfin, en complément des lois et des certifications, on pourrait également
imaginer le développement de codes de conduite. Derrière cette notion de code
de conduite, on trouve celle de la responsabilité. Les concepteurs d’IA, en
développant des systèmes qui influencent considérablement divers aspects de
nos vies, détiennent un pouvoir important. Et comme tout grand pouvoir
implique de grandes responsabilités, les professions ayant des impacts notables
sur la vie des autres sont souvent régies par une déontologie et des codes de
conduite. C’est le cas de métiers sensibles comme celui de médecin ou d’avocat
par exemple.
On trouve actuellement plusieurs tentatives de création de code déontologique
dans le contexte de l’IA. L’une d’elles est le serment Holberton-Turing, qui
énumère des valeurs et principes moraux que les experts en IA se devront
d’honorer57. On trouve également le « serment d’Hippocrate pour Data
Scientist », développé par l’association de bénévoles Data for Good, qui établit
cinq principes fondamentaux que les data scientists, et toute autre personne
travaillant avec de la donnée, s’engageraient à respecter dans leur profession58.
On trouve enfin le code de conduite de l’ACM (Association for Computing
Machinery), qui proclame l’obligation des professionnels de l’informatique
d’utiliser leurs compétences au profit de la société.
Tout cela est assez prometteur. Cependant, pour que ces codes déontologiques
soient véritablement utiles et non pas simplement symboliques, il est essentiel
d’instaurer des mécanismes de sanctions appropriés. Prenons l’exemple des
médecins et des avocats : non seulement ils sont assujettis à un code
déontologique, mais ils sont aussi régis par un ordre professionnel, comme le
Conseil de l’Ordre des médecins et l’Ordre des avocats au Conseil d’État et à la
Cour de cassation59. Ces entités ne régulent pas uniquement l’accès à la
profession ; elles administrent aussi la discipline au sein de celle-ci, en
sanctionnant les manquements déontologiques. Ainsi, un médecin qui viole le
secret médical, stipulé dans le serment d’Hippocrate, peut se voir exclu de
l’Ordre des médecins et être interdit d’exercer la médecine. On pourrait
envisager un mécanisme analogue pour l’IA, où les professionnels seraient
organisés au sein d’un ordre dédié. Toutefois, un défi important émerge lorsque
l’on considère le large éventail de professions différentes qui contribuent au
développement des intelligences artificielles. Cela demandera indéniablement un
travail de fond sur la définition des métiers et de leurs impacts, mais cela reste
une idée assez intéressante à considérer pour mieux encadrer le développement
des IA.
Que ce soit au travers des lois, des certifications ou des codes déontologiques,
les idées et les options ne manquent donc pas pour encadrer au mieux le travail
sur l’intelligence artificielle.

3.3. Les législations sur la protection des données et le RGPD


Parmi les premières réglementations notables qu’il convient de mentionner
lorsque l’on parle d’un encadrement juridique des IA on trouve les
réglementations liées à la protection de la vie privée. En effet, comme nous
l’avons vu, les intelligences artificielles s’appuient sur des volumes colossaux de
données pour entraîner leurs algorithmes, une grande partie d’entre elles étant
des données personnelles. Les entreprises s’en saisissent pour effectuer des
analyses et entraîner leurs algorithmes de machine learning, avec souvent une
certaine opacité sur la manière dont ces données sont utilisées, combinées et
dans quel objectif elles sont utilisées. Tout ceci conduit à des risques
conséquents concernant le respect de la vie privée.
Pour y faire face, les gouvernements ont progressivement développé des cadres
juridiques afin de normer la collecte et l’utilisation des données personnelles par
les entreprises. Ainsi, une multitude de cadres législatifs et accords juridiques
ont été élaborés à travers le monde, afin d’encadrer et de faire respecter le droit à
la vie privée et la protection des données personnelles. Voici une liste non
exhaustive de quelques-unes de ces réglementations :
• PIPEDA (Personal Information Protection and Electronic Documents Act,
introduit en 2000 au Canada) : texte de référence au Canada en matière de
protection des données. À l’échelle mondiale, il correspond à un niveau de
régulation considéré comme fort.
• CCPA (California Consumer Privacy Act, introduit en 2018 en Californie
aux États-Unis) : texte qui renforce les droits à la vie privée et à la protection
des consommateurs californiens. À l’échelle mondiale, il affiche un niveau
de régulation jugé fort.
• APA (Australian Privacy Act, introduit en 1988 en Australie) : principal texte
de loi en Australie, il garantit la protection du traitement des informations
personnelles. À l’échelle internationale, il est reconnu pour son niveau de
régulation plutôt important.
• PIPA (Personal Information Protection Act, introduit en 2011 en Corée du
Sud) : texte de référence sur la protection des données dans le pays. À
l’échelle mondiale, il offre un niveau de régulation considéré comme fort.
• APPI (Act on the Protection of Personal Information, introduit en 2003 au
Japon) : administrée et appliquée par la Commission de protection des
renseignements personnels (CPP), cette loi assure un niveau de régulation
moyen au regard des normes internationales.
• CDPR (China Data Protection Regulations, introduit en 2021 en Chine) :
texte référent pour la protection et la sécurité des données personnelles, il
incarne un niveau de régulation moyen sur l’échelle mondiale.
• APDPA (Argentina Personal Data Protection Act, introduit en 2000 en
Argentine) : axé sur la protection de la confidentialité des données
personnelles, ce texte est jugé comme offrant un niveau de régulation moyen
à l’échelle internationale.
• LGPD (Lei Geral de Proteção de Dados Pessoais, introduit en 2018 au
Brésil) : régulant la protection des données et la vie privée, ce texte propose
un niveau de régulation considéré comme modéré sur la scène internationale.
• RFLPD (Russian Federal Law on Personal Data, introduit en 2006 en
Russie) : texte de référence pour la protection de la vie privée en Russie, son
niveau de régulation est perçu comme modéré à l’échelle mondiale.
• POPIA (Protection of Personal Information Act, introduit en 2020 en
Afrique du Sud) : définissant les normes minimales pour l’accès et le
traitement des informations personnelles, ce texte est associé à un niveau de
régulation modéré internationalement.
• KVKK (Kişisel Verileri Koruma Kurumu, introduit en 2017 en Turquie) : en
tant qu’organisation gouvernementale visant à protéger les données
personnelles, elle établit un niveau de régulation modéré sur le plan mondial.
• PDPB (Personal Data Protection Bill, introduit en 2019 en Inde) : ce texte,
axé sur la protection des données, correspond à un niveau de régulation faible
à l’échelle internationale.
• PDPA (Personal Data Protection Act, introduit en 2012 à Singapour) : texte
singapourien relatif à la protection des données, il est associé à un niveau de
régulation faible sur l’échelle mondiale.
• PDPA (Philippines Data Privacy Act, introduit en 2012 aux Philippines) : en
tant que loi régulant la confidentialité des données, elle offre un niveau de
régulation jugé faible sur le plan international.
En plus de ces divers traités, on trouve évidemment le fameux RGPD ou
Règlement Général sur la Protection des Données. Il est aujourd’hui reconnu
comme étant la réglementation la plus rigoureuse et exigeante au monde en
matière de protection de la vie privée. Avant l’introduction du RGPD, la France
ne disposait pas véritablement d’un cadre juridique robuste régulant les pratiques
sur Internet, laissant ainsi les entreprises faire ce que bon leur semble. En 1978,
la loi Informatique et Libertés a été mise en place pour réguler le traitement des
données personnelles, menant à la création de la Commission nationale de
l’informatique et des libertés, ou CNIL. En tant qu’autorité administrative
indépendante française, la CNIL a pour objectif de protéger les données
personnelles des citoyens français. Toutefois, les principes et la portée de cette
loi assez ancienne étaient assez limités, d’autant que celle-ci a été promulguée
avant même le développement d’Internet. Le RGPD, lui, va beaucoup plus loin
dans la démarche, en instaurant des conditions et des limitations sérieuses pour
les entreprises dans leur gestion des données.
Dans les grandes lignes, le RGPD mis en place en 2018, constitue un cadre
légal qui s’étend à toute l’Europe, avec l’objectif central de redonner aux
citoyens européens la maîtrise de leurs données personnelles. Ce dispositif vise à
s’assurer que les individus soient mieux informés sur l’utilisation que font les
entreprises de leurs informations et puissent influer sur cette utilisation. De plus,
le RGPD a également pour objectif de responsabiliser davantage les entreprises
concernées. On veut les conduire à se sentir responsables de cette question de
respect de la vie privée, et ainsi à prendre les mesures nécessaires. Avec ce
nouveau règlement, les entreprises doivent, par exemple, être en capacité
d’identifier en permanence les données qu’elles détiennent, d’où elles
proviennent, comment elles sont structurées, quel est le but de leur collecte,
comment elles sont gérées et stockées, et ainsi de suite. Ceci impose aux
entreprises notamment de conserver un registre des données traitées, de
renforcer leur communication et leur transparence sur l’utilisation des données
mais aussi de respecter un ensemble de principes et d’obligations à l’égard des
citoyens européens.
Dans le cas contraire, ces entreprises seront sévèrement sanctionnées. Ces
sanctions peuvent aller jusqu’à 4 % du chiffre d’affaires annuel ou 20 millions
d’euros, selon laquelle des deux sanctions représente la somme la plus élevée.
Ainsi, s’il s’agit d’une petite entreprise on appliquera plutôt la sanction de 20
millions d’euros. Mais s’il s’agit d’une entreprise plus grosse, qui génère plus de
chiffre d’affaires, on évaluera la sanction en pourcentage de ce chiffre d’affaires,
ce qui peut représenter un très gros montant. Pour une entreprise comme
Amazon par exemple, qui a déclaré un chiffre d’affaires de 51,3 milliards
d’euros en 2021, la sanction pourrait dépasser les 2 milliards d’euros. Des
dommages et intérêts potentiels peuvent également s’ajouter à cette somme.
Cependant, dans la pratique, les géants de la tech qui sont sanctionnés ne payent
pas toujours de tels montants. Prenons le cas d’Amazon : bien que l’entreprise
ait été sanctionnée pour des manquements liés à la protection des données en
2021, elle n’a déboursé que 790 millions de dollars, un montant bien inférieur
aux 4 % de son chiffre d’affaires60. Le groupe Meta, avec ses diverses
applications comme Facebook, WhatsApp, Instagram a quant à lui payé près de
1,425 milliard de dollars entre 2021 et 2023 (voir Figure 44).
Figure 44. Montants des sanctions payées par les géants de la tech, pour non-respect du RGPD

Source : autrice, adaptée de Statista. https://www.statista.com/chart/25691/highest-fines-for-gdpr-


breaches/
Ce cadre fourni par le RGPD, qui prévoit des sanctions financières, s’applique
à tous les organismes qui traitent des données. Qu’il s’agisse d’entreprises,
d’associations ou d’organismes publics, tous sont concernés. De plus, ce
règlement ne vise pas uniquement les entreprises ou organismes européens : tout
organisme hors de l’Europe traitant des données de citoyens européens est
également soumis à ces règles. Ainsi, des géants comme Amazon ou Google,
lorsqu’ils traitent des données de citoyens européens sont soumis au RGPD.
L’essence même de ce règlement est d’assurer et de protéger les droits des
individus en matière de vie privée, leur offrant divers droits spécifiques
concernant leurs données personnelles. On trouve ainsi trois grands types de
droits dans le RGPD.
Tout d’abord on trouve le droit au consentement explicite, qui stipule que l’on
peut collecter des données sur un utilisateur uniquement dans le cas où il y aurait
consenti61. Vous avez probablement remarqué ce changement lors de vos
navigations sur Internet, où l’on vous demande désormais d’accepter ou de
refuser les cookies avant de poursuivre. Évidemment ce respect est loin d’être
optimal et la réglementation en vigueur n’a peut-être pas assez considéré les
risques de contournement. En effet, on remarque que beaucoup d’entreprises
essayent de contourner cette règle en rendant le refus des cookies assez
« laborieux ». Au lieu d’une simple option d’acceptation ou de refus, elles nous
orientent vers une page « en savoir plus », où la désactivation des cookies
nécessite souvent de décocher manuellement plusieurs cases. Ces méthodes
visent à inciter les utilisateurs à accepter les cookies, car ces derniers sont une
source d’information précieuse pour les sites. Certains sites comme le site de
Marmiton ou la majorité des sites d’actualité, ont carrément rendu l’accès à leur
site payant si l’utilisateur n’accepte pas les cookies. Ceci nous rappelle à quel
point nos données personnelles ont de la valeur pour ces entreprises et que le
dicton « si c’est gratuit, c’est que vous êtes le produit » se vérifie bien. Sur cette
question des cookies, la CNIL a élaboré une extension pour navigateur,
CookieViz62, qui permet de voir en temps réel où sont envoyées nos données
lorsque l’on accepte les cookies sur un site.
Le deuxième type de droit garanti par le RGPD est le droit à l’anonymisation.
Lorsqu’une entreprise collecte des données personnelles, elle est dans
l’obligation d’anonymiser les données pour éviter de pouvoir identifier et tracer
les individus63. L’anonymisation consiste à traiter les données collectées de
manière à ce qu’elles ne puissent plus être utilisées pour identifier un individu
spécifique, sauf si ces informations sont combinées avec d’autres données. Cela
peut être réalisé par des techniques telles que la suppression de certains éléments
d’identification ou l’utilisation de codes ou d’autres moyens pour masquer les
éléments originaux. Ce droit vise à garantir que, même si une entreprise possède
des informations sur une personne, elle ne peut pas abuser de cette connaissance
ou la compromettre.
Le troisième type de droit est un droit de regard sur nos données personnelles,
qui concerne l’accès, la modification mais aussi la suppression de ces données.
En tant qu’utilisateur vous pouvez tout à fait accéder, modifier et même
demander la suppression de vos données64. Il s’agit là de la notion de « droit à
l’oubli ». L’entreprise est dans l’obligation d’accepter vos demandes. De plus, ce
droit s’étend à la garantie d’un droit de regard sur le traitement des données.
L’utilisateur est en droit de savoir ce que l’entreprise va faire de ses données et il
peut lui indiquer ce qu’il souhaite que l’entreprise fasse ou ne fasse pas avec ses
données. Vous pouvez tout à fait demander quels traitements sont faits sur vos
données personnelles, dans quels objectifs, etc. Et vous pouvez également vous
opposer à ces traitements en question. Là encore l’entreprise est dans
l’obligation de répondre à vos demandes. Ces grands principes sont assez
importants et redonnent un pouvoir inédit au consommateur. Encore faut-il qu’il
soit au courant de ses droits…

3.4. Le respect du RGPD en action


La promulgation du RGPD a entraîné de nombreuses répercussions pour les
entreprises, et en particulier les entreprises du numérique. Elles ont été
contraintes de revoir intégralement leur approche de la collecte et du traitement
des données personnelles. De nombreux cabinets de conseil et d’avocats se sont
spécialisés dans cette maîtrise du RGPD pour accompagner les entreprises dans
ce changement. Voici, en pratique, les transformations engendrées et les
principes fondamentaux que les entreprises ont dû instaurer.
Tout d’abord, les entreprises sont désormais dans l’obligation de tenir un
registre des traitements des données personnelles. Pour chaque type de données,
elles sont tenues de préciser : quels traitements sont effectués, dans quel but,
comment ces données sont sécurisées, de quelle manière des tiers les utilisent,
avec quels partenaires elles sont partagées et ainsi de suite. Tous ces détails
doivent figurer dans ce registre.
Ensuite, le RGPD exige des entreprises qu’elles réalisent des études d’impact
sur la protection des données personnelles avant la mise en œuvre de tout
nouveau projet de traitement de données65. Ces études doivent non seulement
évaluer les conséquences possibles sur la vie privée, mais aussi anticiper les
mesures à mettre en place pour minimiser les risques potentiels. L’objectif de ces
études d’impact est d’établir un état des lieux précis et d’effectuer un diagnostic
approfondi.
Un autre grand principe mis en avant par le RGPD est le Privacy by design.
Selon ce principe, la protection des données personnelles doit être intégrée dès la
phase initiale de la conception d’un produit, d’un service ou même d’un système
d’information, que ce soit pour une base de données ou la création d’une
application. Par exemple, lors de la création d’une nouvelle application mobile,
plutôt que d’ajouter des fonctionnalités de confidentialité après coup, celles-ci
devraient être intégrées dès le début du processus de conception. Si une
entreprise lance un site de e-commerce, la protection des données du client doit
être au cœur du design initial, plutôt que d’être rajoutée ultérieurement. L’idée
sous-jacente est d’anticiper et de prévenir les problèmes de confidentialité dès le
départ, et non de les traiter comme des problèmes à régler ultérieurement. En
corollaire, le RGPD évoque le concept de security by default. Ce dernier insiste
sur le fait que la sécurité des données personnelles doit être intrinsèque dès la
conception des infrastructures et produits. L’objectif est de mettre la sécurité au
cœur du système d’information de l’entreprise et de ses différents projets.
Un autre principe majeur qui a poussé les entreprises à se réorganiser est
l’introduction d’un Data Protection Officer (DPO), soit un délégué à la
protection des données66. C’est précisément ce DPO qui va s’assurer que
l’entreprise remplisse bien chacun des critères et soit bien conforme au RGPD.
On trouve ensuite le principe d’« autoresponsabilisation », qui est au cœur même
du fonctionnement du RGPD. Il énonce que c’est à l’entreprise elle-même de
prendre toutes les initiatives nécessaires pour assurer sa conformité au RGPD.
En d’autres termes, elle doit être capable, à tout instant, de prouver qu’elle
répond bien aux principes. Enfin, un autre pilier du RGPD est la notification
immédiate de problèmes auprès des autorités67. Les entreprises sont dans
l’obligation de notifier aux autorités et aux utilisateurs si elles observent des
problèmes liés aux données personnelles comme une fuite de données ou des
failles de sécurité par exemple.
Tous ces principes fondamentaux ont contraint les entreprises à réévaluer leurs
méthodes de collecte et de traitement des données. Dans la pratique, cela se
traduit par la nécessité d’obtenir le consentement des utilisateurs ; l’aspect le
plus visible de cette dimension étant les notifications d’acceptation de cookies
que l’on peut désormais voir sur tous les sites web. Il s’agit également
d’anonymiser les données de manière à empêcher toute identification
individuelle. Les entreprises doivent assurer un suivi rigoureux, effectuer des
analyses et établir des diagnostics relatifs aux conséquences de leurs activités sur
la vie privée. La transparence et la communication accrue avec les clients sont
également de mise. De plus, la collecte des données doit être minimisée : les
entreprises ne doivent collecter que les données strictement nécessaires à leurs
objectifs. À l’instar de la pêche au chalut, l’objectif est d’éviter que les
entreprises ne capturent d’immenses volumes de données sans justification
valable.

3.5. Gouvernance des données et propriété intellectuelle


Face à l’évolution des législations pour encadrer l’intelligence artificielle et
l’utilisation des données personnelles, comme le RGPD, d’autres enjeux majeurs
liés à la gouvernance des données et à la propriété intellectuelle méritent d’être
abordés.
En effet, un problème de taille qui se pose en matière de gestion des données
pour le développement des IA est celui de l’extra-territorialité. L’extra-
territorialité désigne la capacité d’une nation ou d’une entité à exercer son
autorité au-delà de ses frontières géographiques (Thelisson, 2019). Dans le
contexte du numérique, cela se manifeste par la question de l’accès, du stockage
et de l’utilisation de données qui sont physiquement situées dans un autre pays
ou sous la juridiction d’une entité étrangère. Avec l’omniprésence et la
généralisation du cloud, qui permet de stocker des données partout dans le
monde, l’extra-territorialité est devenue une préoccupation majeure pour les
entreprises, les gouvernements et les individus. À ce titre, certaines
réglementations comme le Cloud Act ont soulevé de fortes inquiétudes quant à la
souveraineté des données et la protection des droits individuels sur les territoires
étrangers (Chambon & Salziger, 2018). Adopté aux États-Unis, le Cloud Act est
un texte législatif qui permet aux autorités américaines d’accéder à des données
stockées à l’étranger par des entreprises basées aux États-Unis. Cela signifie que,
même si un citoyen européen utilise un service cloud d’une entreprise
américaine et que ses données sont stockées en Europe, le gouvernement
américain pourrait théoriquement y accéder (Chambon & Salziger, 2018). Cela
pose de sérieux problèmes en matière de souveraineté des données, de respect de
la vie privée et d’éventuels conflits juridiques entre nations.
L’enjeu ne s’arrête pas là. Cette question devient plus complexe lorsque l’on
considère que de nombreux pays ont leurs propres réglementations en matière de
protection des données personnelles et de la vie privée. Le RGPD en Europe est
un exemple de règlement qui met l’accent sur la protection des données
personnelles et la transparence. Comment ce type de législation peut-il cohabiter
avec des lois extraterritoriales telles que le Cloud Act ? De plus, cette situation
soulève également la problématique de la confiance. Les entreprises et les
particuliers doivent avoir confiance dans les fournisseurs de services cloud pour
gérer leurs données de manière sécurisée et conforme aux réglementations
locales. Mais si ces fournisseurs sont soumis à des lois d’autres juridictions, cette
confiance peut être érodée.
Nous avons vu, que les IA, pour fonctionner, vont aspirer une multitude de
données disponibles sur Internet et que ceci peut poser de sérieux problèmes
quant au respect de la vie privée. Pour autant, la vie privée n’est pas le seul enjeu
à prendre en compte. Il y a également des défis importants concernant la
propriété intellectuelle qu’il faut considérer. En effet, nous laissons beaucoup de
traces sur Internet. Pas seulement des données personnelles mais également du
contenu ou des productions intellectuelles que nous mettons en ligne et qui
peuvent être récupérés par des algorithmes qui vont s’entraîner dessus. C’est
exactement ce qu’a fait Microsoft avec leur intelligence artificielle GitHub
Copilot, qui emploie le traitement du langage naturel (NLP) pour aider les
développeurs à écrire leur code informatique, à l’aide de suggestions, de
génération de code et d’autocomplétion. L’outil est d’une efficacité redoutable
avec des autocomplétions très pertinentes ! Pour atteindre une telle performance,
Microsoft a puisé dans l’intégralité du contenu public de GitHub, une plateforme
rachetée par l’entreprise il y a quelques années, et qui permet aux développeurs
d’héberger publiquement leur code informatique. Leur IA Copilot s’est ainsi
entraînée sur tout ce contenu hébergé sur GitHub, et cela sans tenir compte des
licences et des copyrights. Ceci pose de réelles problématiques, d’autant que ce
produit, désormais commercialisé, est maintenant payant. De plus, comme
Copilot s’est entraîné à partir de codes écrits par des développeurs, on trouve
parfois dans l’autocomplétion de Copilot les noms de ces personnes ou d’autres
informations identifiables qui étaient contenus dans les codes. Ainsi, à leur insu,
des développeurs peuvent voir leur nom apparaître ou d’autres informations sous
copyright lorsque Copilot propose et complète du code de manière autonome68.
Tout comme Copilot, ChatGPT, qui a suscité un vif intérêt ces derniers temps,
a été formé à partir d’immenses volumes de textes issus du Web. Cela laisse
supposer que du contenu protégé par droits d’auteur a pu contribuer à son
entraînement, même si ce contenu n’est pas directement reproduit par l’IA69. Ce
constat met en lumière des interrogations autour de la propriété intellectuelle : à
quel point un modèle peut-il générer du contenu basé sur ce qu’il a appris sans
enfreindre les droits d’auteur ? À qui appartiennent les contenus produits par
l’intelligence artificielle ? Peut-on parler d’œuvres au sens du Code de la
propriété intellectuelle ? Peut-on utiliser librement les contenus ? Quels sont les
risques ?
De plus, l’usage de ChatGPT dans des contextes académiques ou
professionnels soulève d’autres enjeux. Par exemple, des étudiants pourraient
être tentés d’utiliser ChatGPT pour générer du contenu pour des devoirs ou des
dissertations, ce qui pose la question de la tricherie et de l’intégrité académique.
En entreprise, des employés pourraient s’appuyer sur ChatGPT pour rédiger des
rapports ou d’autres documents sans réellement maîtriser le sujet, conduisant à
des problèmes potentiels de compétence et de confiance. S’appuyer trop
lourdement sur une IA pourrait conduire à des erreurs d’appréciation, des
malentendus ou même des fautes professionnelles. Que cela soit dans le milieu
académique ou le milieu de l’entreprise, il est primordial d’adopter une approche
nuancée quand il s’agit de ces IA pour en maximiser les avantages tout en évitant
les pièges potentiels. Les individus doivent apprendre à utiliser ces intelligences
artificielles comme un complément, qui peut les aider à être plus efficace, à être
plus innovant et pertinent. Néanmoins, en s’appuyant trop sur l’IA certains
pourraient succomber à une forme de paresse intellectuelle, négligeant ainsi leur
propre développement professionnel et leur sens critique. L’IA devrait être
perçue comme un outil permettant d’approfondir et d’enrichir la compréhension
d’un sujet, et non comme un raccourci pour éviter le travail intellectuel.
Ainsi, tout en reconnaissant le potentiel transformateur de l’IA comme outil
complémentaire pour enrichir nos capacités et stimuler notre créativité, il est
impératif de ne pas perdre de vue les responsabilités qui l’accompagnent. En
effet, l’essor rapide de ces gros modèles d’IA, qui traitent d’énormes volumes de
données, souligne l’urgence de définir des cadres juridiques et éthiques adaptés.
Ces technologies, aussi bénéfiques soient-elles en termes d’efficacité et de
soutien, apportent des défis qui demandent une attention et une réflexion
approfondie de la part des législateurs, éducateurs et entreprises.

3.6. Le AI Act européen


Pour mieux encadrer les IA d’un point de vue juridique, une avancée
importante a été réalisée avec la mise en place de l’EU AI Act, adopté en 2023,
qui vise à encadrer l’usage des intelligences artificielles. Proposé initialement
par la Commission européenne en 202170, l’EU AI Act aspire à offrir un cadre
juridique unifié pour tous les pays européens en ce qui concerne l’intelligence
artificielle. Nous l’avons vu, l’IA présente de multiples risques et enjeux
éthiques qui requièrent une réglementation adéquate. L’ambition d’un tel projet
est de fournir une législation commune qui s’étendrait à l’intégralité des secteurs
(à l’exception du secteur militaire) et toucherait la fabrication, le développement
et l’usage de tout type d’IA. L’un des défis majeurs d’une telle législation est de
trouver une approche équilibrée qui permet à la fois de maximiser les avantages,
tant économiques que sociaux, mais aussi de diminuer les risques. L’idée est de
s’assurer que l’on développe des systèmes d’IA fiables et dignes de confiance,
qui permettent de respecter les droits fondamentaux et les valeurs des pays
européens.
En 2023, le Parlement européen a fini par voter ce projet de loi de l’EU AI
Act71. Ce texte pourrait être promulgué dans les prochains mois et s’appliquer
dès 2024. Une particularité centrale de cette législation réside dans son approche
basée sur les risques associés à chaque application d’intelligence artificielle (voir
Figure 45). Le texte définit ainsi quatre catégories de risques, assorties de
mesures réglementaires distinctes :
• Risque inacceptable : Cette catégorie concerne les systèmes d’IA jugés
contraires aux valeurs et aux droits fondamentaux de l’UE. Elle inclut, entre
autres, les systèmes exploitant des personnes vulnérables, l’identification
biométrique à distance, les systèmes de « score social » et les techniques
subliminales. Ces systèmes sont purement et simplement interdits.
• Risque élevé : Il s’agit des IA qui sont déployées dans des secteurs sensibles
comme celui de la santé par exemple, et qui peuvent avoir de graves
conséquences. Ces IA, en raison de leur potentiel impact, doivent subir une
évaluation rigoureuse par des agences nationales avant leur déploiement.
Parmi ces systèmes, on retrouve les IA dédiées au domaine médical, à
l’identification biométrique, à la gestion des infrastructures critiques, à la
formation professionnelle ou encore à la reconnaissance faciale, comme celle
utilisée dans les aéroports.
• Risque modéré : Les systèmes d’IA répertoriés dans cette catégorie sont
soumis principalement à des exigences de transparence. Bien qu’une
évaluation préalable ne soit pas nécessaire car le risque est modéré, il
incombe à l’exploitant de décrire de manière claire le fonctionnement de
l’IA. Par exemple, le déploiement d’un chatbot entre dans cette catégorie.
Pour être conforme à l’EU AI Act, le développeur se doit d’informer
l’utilisateur qu’il interagit avec une machine et non avec une personne. Les
systèmes de filtrage de contenu entrent également dans cette catégorie ; ils
doivent fournir une justification claire des critères de filtrage utilisés.
• Risque faible : Relatifs à des applications courantes comme les objets
connectés du quotidien, ces systèmes, considérés comme très peu risqués, ne
sont soumis ni à une obligation d’autorisation préalable, ni à des exigences
spécifiques de transparence.
Ce découpage basé sur les risques garantit une régulation à la fois adaptée et
proportionnée, le tout en reflétant le large éventail d’applications et d’enjeux
associés aux variétés d’intelligences artificielles qui sont développées et
déployées.
Figure 45. L’EU AI Act, une approche basée sur le risque

Source : autrice, adaptée de https://artificialintelligenceact.eu/fr/l-acte/

Ce règlement établit donc une liste d’IA complétement interdites sur le marché
européen, à savoir celles répertoriées dans la catégorie « risque inacceptable ».
De plus, grâce à cette approche basée sur le niveau de risque, le règlement
identifie certains systèmes d’IA (risques modéré et élevé) qui doivent répondre à
des exigences spécifiques avant d’être introduits sur le marché. Pour les
systèmes d’IA à risque élevé, le règlement instaure également des mécanismes
de certification par des organismes tiers, assurant ainsi leur conformité aux
règles établies72.
L’EU AI Act vise également à renforcer la responsabilité des entreprises en
matière d’intelligence artificielle. En effet, en complément de cette classification
des IA selon leur niveau de risque, la Commission européenne a également
travaillé sur une directive portant sur la notion d’AI liability73. L’objectif est de
définir la responsabilité des dommages et effets indésirables causés par les
systèmes d’IA, qui ne respecteraient pas les exigences en matière d’éthique et de
conformité. Avec cette directive, si une entreprise ne respecte pas certaines
obligations légales, elle pourrait être plus facilement tenue responsable des
dommages causés. En cas de non-respect des règles définies par l’EU AI Act, les
entreprises du secteur risquent d’être exclues du marché de l’UE, et pourraient
avoir à payer des amendes allant jusqu’à 30 millions d’euros ou 4 % de leur
chiffre d’affaires74.
Étant donné les avancées importantes et rapides du domaine de l’intelligence
artificielle, il est prévu qu’une révision de cet EU AI Act soit faite tous les six
mois afin que ce règlement ne devienne pas obsolète. Il semble que comme pour
le RGPD, nous pouvons être fiers de ces avancées juridiques, car l’UE est le
premier continent à avoir élaboré une telle réglementation dédiée à l’intelligence
artificielle. Cette initiative intervient à un moment décisif, compte tenu de la
progression fulgurante de l’IA et des dilemmes éthiques qu’elle suscite. Il
convient également de souligner que la conformité au RGPD est un prérequis à
celle de l’EU AI Act. Bien que ces deux réglementations soient distinctes, elles
sont parfaitement complémentaires. Un système d’IA traitant des données
personnelles doit non seulement se conformer aux exigences du RGPD en
matière de protection des données, mais il devra également répondre aux critères
de l’EU AI Act concernant les risques associés à son déploiement.
Néanmoins, précisons que bien que le texte relatif à l’EU AI Act ait enfin été
voté par le Parlement européen en 2023, il n’a pas encore été promulgué. Son
application est attendue pour 2024 et les entreprises disposeront ensuite de deux
ans pour se mettre en conformité avec cette réglementation. Cependant, la mise
en œuvre effective de cette législation suscite des interrogations. Nombre
d’acteurs du secteur ont exprimé leurs inquiétudes, considérant que sa mise en
application pourrait s’avérer complexe, voire irréalisable.
À ce propos, une étude menée par des chercheurs du Center for Research on
Foundation Models (CRFM) de l’université de Stanford, montre que se mettre en
conformité avec l’EU AI Act tel qu’il est défini actuellement serait un véritable
challenge pour l’ensemble des acteurs du domaine75. Sur 12 exigences définies
par l’EU AI Act, qui pouvaient être évaluées à partir d’informations
publiquement disponibles, les chercheurs montrent que la majorité des modèles
d’IA actuellement déployés, comme PaLM2 de Google ou GPT-4 d’OpenAI,
sont loin d’être en conformité avec ces critères (voir Figure 46 pour une
représentation visuelle de l’évaluation des différents critères).
Face à ce constat, de nombreuses entreprises ont exprimé leurs réserves sur cet
EU AI Act. Des responsables et dirigeants de plus de 150 entreprises, y compris
des grosses entreprises comme Siemens ou Renault, ont signé une tribune
commune le 30 juin 2023 pour faire part de leurs préoccupations. Ils ont
souligné dans une lettre ouverte que, selon eux, le projet de loi menacerait la
compétitivité et la souveraineté technologique de l’Europe sans véritablement
répondre aux défis présents et à venir76. Si les régulations sont trop
contraignantes, il y a également un risque que les entreprises retirent leurs
services des pays européens. Par exemple, le modèle de GPT d’OpenAI n’est
clairement pas en conformité avec l’ensemble des principes de l’EU AI Act à ce
jour. OpenAI pourrait alors décider de retirer ses produits du marché européen
comme ChatGPT, ce qui serait un vrai risque pour la compétitivité des
entreprises.
En considérant ces préoccupations multiples, il est clair que le chemin vers une
régulation efficace de l’IA en Europe n’est pas si direct et évident. Le dialogue
entre les décideurs politiques et les acteurs de l’industrie sera essentiel pour
garantir que l’EU AI Act réponde aux besoins évolutifs du secteur tout en
préservant les valeurs et les droits fondamentaux des citoyens européens. Ces
défis réglementaires et éthiques nous amènent inévitablement à une réflexion
plus profonde : comment devons-nous repenser nos organisations et nos
pratiques face à la montée en puissance de l’IA ?
Figure 46. Analyse de conformité des modèles d’IA selon l’EU AI Act
Source : autrice, adaptée de https://crfm.stanford.edu/2023/06/15/eu-ai-act.html

4. REPENSER LES ORGANISATIONS ET LES PRATIQUES


Nous l’avons vu, l’impact grandissant des IA sur nos vies soulève d’importants
enjeux éthiques et moraux. Ceux-ci nous poussent à réexaminer et à restructurer
nos organisations et nos pratiques. Dans la suite de ce chapitre, nous explorerons
les adaptations nécessaires pour les entreprises et la société face à ces
révolutions technologiques. Il sera question de l’importance d’inclure toutes les
parties prenantes dans les débats éthiques sur l’IA. Nous suggérerons également
des principes pratiques pour favoriser une IA éthique. Pour conclure, nous
réfléchirons aux mutations de la relation homme-machine et à l’évolution
potentielle des professions et des activités pour garantir une complémentarité
bénéfique entre les deux.

4.1. Une nécessaire participation des parties prenantes dans les réflexions
éthiques des IA
Les avancées continues en matière d’intelligence artificielle et leurs
implications dans notre quotidien suscitent d’importants débats éthiques.
Cependant, ces réflexions ne devraient pas se limiter aux individus ou se
cantonner uniquement aux entreprises technologiques. Elles doivent s’étendre à
tous les niveaux, qu’ils soient organisationnels ou sociétaux. L’établissement
d’une éthique découle toujours de dialogues et d’échanges ouverts. Le sujet de
l’IA et de ses implications ne devrait pas être réservé aux ingénieurs et aux
concepteurs de ces technologies. De même, les débats éthiques autour de l’IA ne
doivent pas se limiter aux cercles d’experts ou aux seules entreprises qui
façonnent ces technologies. L’ensemble de la société devrait pouvoir s’emparer
de ce sujet et participer activement à cette réflexion. Ainsi, pour beaucoup
d’experts, si l’on souhaite développer des IA éthiquement responsables, il faut
pouvoir s’appuyer sur toutes les parties prenantes de la société qui apporteront
leur vision et leur savoir sur les potentielles conséquences non désirées de ces
technologies.
Lawrence Lessig, professeur à la Harvard Law School, a exprimé dans le
Harvard Magazine l’idée suivante : « Le code régule. Il implémente – ou non –
un certain nombre de valeurs. Il garantit certaines libertés, ou les empêche. Il
protège la vie privée, ou promeut la surveillance. Des gens décident comment le
code va se comporter. Des gens l’écrivent. La question n’est donc pas de savoir
qui décidera de la manière dont le cyberespace est régulé : ce seront les codeurs.
La seule question est de savoir si nous aurons collectivement un rôle dans leur
choix – et donc dans la manière dont ces valeurs sont garanties – ou si nous
laisserons aux codeurs le soin de choisir nos valeurs à notre place77. » La
perspective de Lawrence Lessig révèle un élément important à considérer : le
code informatique, qui est au cœur de l’IA, porte en lui des choix qui affectent
profondément notre société. Il est donc vital que ces choix ne soient pas laissés
uniquement entre les mains des codeurs, mais qu’ils résultent d’une concertation
collective. En d’autres termes, la conception et la régulation de l’IA doivent être
un effort collaboratif, impliquant toutes les parties prenantes de la société, pour
garantir que les technologies que nous adoptons soient en adéquation avec nos
valeurs partagées.
Comment l’intelligence artificielle influence-t-elle notre quotidien ? Quels sont
ses impacts sur notre environnement ? Comment notre société doit-elle évoluer
pour intégrer ces technologies tout en préservant nos valeurs ? Pour aborder de
telles interrogations, la participation d’un large éventail de parties prenantes est
essentielle. C’est le point de vue défendu par Virginia Dignum dans son
ouvrage Responsible Artificial Intelligence: How to Develop and Use AI in a
Responsible Way. Dans son livre, elle soutient que « l’IA responsable requiert la
participation. Autrement dit, elle nécessite l’engagement de toutes les parties
prenantes et l’inclusion active de l’ensemble de la société. Ceci signifie que tout
le monde devrait être en mesure d’obtenir des informations appropriées sur ce
qu’est l’intelligence artificielle et ce qu’elle peut signifier pour eux, mais aussi
de pouvoir accéder à un enseignement sur l’IA et les technologies associées78 »
(Dignum, 2019).
Ainsi, pour mener des discussions sociétales équilibrées sur l’IA et ses
conséquences, il est impératif d’assurer une représentation diversifiée
d’individus. Que ce soient des chercheurs, citoyens, membres d’ONG, syndicats,
politiciens, médecins, hommes d’affaires ou ouvriers, chaque voix apporte une
perspective unique. Car même si une IA est techniquement performante et
conforme aux normes légales, son impact indirect sur la vie quotidienne peut
être profond et varier selon les individus. Par exemple, un système d’IA qui
optimise les itinéraires de livraison pourrait réduire les opportunités d’emploi
pour les chauffeurs de livraison traditionnels, affectant ainsi leur bien-être
économique. De même, un algorithme de reconnaissance faciale utilisé pour la
sécurité peut porter atteinte à la vie privée des citoyens, altérant leur sentiment
de liberté personnelle. En santé, l’utilisation de l’IA pour la priorisation des soins
peut changer la manière dont les patients interagissent avec les médecins,
potentiellement impactant la qualité des soins et la relation médecin-patient. De
plus, les systèmes automatisés qui filtrent et recommandent du contenu en ligne
peuvent renforcer les bulles de filtres et influencer la perception que les
individus ont de leur propre identité et de celle des autres. Il est donc essentiel
que la conception et la régulation de l’intelligence artificielle soient abordées
avec une perspective transdisciplinaire, intégrant les contributions de toutes les
parties prenantes de la société.
Ainsi, la représentativité dans le développement et l’encadrement des IA est un
élément essentiel. Il est important d’inclure notamment les différences de genre,
les différences ethniques et culturelles. Beaucoup critiquent d’ailleurs une sous-
représentation importante des femmes dans ces discussions et surtout dans les
métiers liés à l’intelligence artificielle. Il se trouve que seulement 12 % des
chercheurs en IA sont des femmes (Loye, 2018). Margaret Mitchell, une
chercheuse en intelligence artificielle qui travaillait chez Microsoft Research,
parlait de son environnement de travail comme étant un « monde de mecs »
(« sea of dudes »)79. Selon un document de l’Éducation nationale française80, les
travaux de recherche en psychologie, en sociologie et en économie ont mis en
évidence le rôle central joué par les normes sociales et les stéréotypes de genre
dans la différenciation des parcours scolaires selon le genre. Ces facteurs,
conduisent les filles à être globalement moins encouragées à poursuivre des
carrières dans les domaines scientifiques et technologiques ce qui impacte in fine
la représentation des femmes dans les métiers de l’IA. Or, le manque de
représentativité dans les équipes et dans les discussions autour du
développement de l’IA et de son encadrement peut avoir des impacts directs sur
les données utilisées et les objectifs, et par conséquent, sur les performances, les
biais et les résultats des IA.
Dans son livre Femmes invisibles : Comment le manque de données sur les
femmes dessine un monde fait pour les hommes, Caroline Criado Perez fournit
une série de petits exemples qui illustrent ce problème. Elle met en avant le
concept de « masculin par défaut » qui est une variable de référence qui définit
la vision et les expériences dites masculines comme norme (Criado Perez, 2020).
Cela peut conduire à des biais dans les données utilisées pour entraîner les IA,
car ces données peuvent ne pas refléter avec précision la diversité de la
population. Par exemple, les tests cliniques sont souvent réalisés sur des hommes
et non sur des femmes. Cela peut entraîner des biais dans les données médicales,
qui peuvent à leur tour affecter la performance des IA dans le domaine de la
santé. Une IA formée sur des données biaisées pourrait ne pas être en mesure de
diagnostiquer correctement certaines conditions chez les femmes. De même, elle
explique que certaines intelligences artificielles ont du mal à reconnaître la voix
des femmes (Criado Perez, 2020). Cela peut être dû au fait que ces systèmes sont
souvent formés sur des données vocales masculines. Par conséquent, ces
systèmes peuvent avoir une performance moindre lorsqu’ils interagissent avec
des voix féminines. En outre, les tests de sécurité des voitures sont souvent
réalisés sur des mannequins basés sur la morphologie, le poids et la taille des
hommes, mais pas des femmes. Cela peut avoir des conséquences dramatiques :
aujourd’hui les femmes ont 73 % de risque supplémentaire par rapport aux
hommes de subir de graves blessures ou de décéder lors d’un accident frontal, et
elles sont trois fois plus susceptibles de souffrir d’un coup de fouet cervical
(Herbert, 2023). Cette situation provient du fait que le mannequin standard des
crash tests qui est le plus couramment utilisé dans le développement des voitures
est le même depuis les années 1970 : il représente un homme adulte moyen de
l’époque (Herbert, 2023). Ces questions se posent évidemment dans le contexte
de la voiture autonome. Si ces systèmes sont principalement testés et formés sur
des données représentant des hommes, ils pourraient ne pas être en mesure de
détecter et de réagir correctement aux situations impliquant des femmes ou
d’autres groupes sous-représentés. Par exemple, si un système de détection de
piétons est formé principalement sur des données représentant des hommes, il
pourrait être moins efficace pour détecter les femmes.
Au-delà de la question des données utilisées, la représentativité au sein des
équipes qui conçoivent, encadrent et discutent les enjeux liés à l’IA est
primordiale pour plusieurs raisons. Premièrement, elle permet d’assurer que les
technologies qui sont développées soient inclusives et en phase avec les valeurs
de la société. En effet, une équipe diversifiée est plus à même de comprendre et
de prendre en compte une variété de perspectives et d’expériences. Cela peut
aider à éviter les biais et à garantir que les technologies développées profitent à
tous. Deuxièmement, la représentativité peut aider à souligner les risques et les
problèmes potentiels. Les personnes issues de différents horizons peuvent
apporter des points de vue uniques et précieux qui peuvent aider à identifier et à
résoudre les problèmes. Par exemple, une femme peut être plus à même
d’identifier un biais de genre dans une IA, tandis qu’une personne issue d’une
minorité ethnique peut être plus à même d’identifier un biais racial. Enfin, la
représentativité peut contribuer à créer un environnement de travail plus
équitable et inclusif. Cela peut attirer un plus grand nombre de talents
diversifiés, ce qui peut à son tour conduire à des innovations plus importantes et
à une meilleure performance globale.
En somme, la représentativité n’est pas seulement une question d’équité, mais
aussi une question de performance et d’innovation ; elle est essentielle pour
garantir que les technologies d’IA soient équitables, bénéfiques et respectueuses
des valeurs de la société. Alors que nous soulignons l’importance de construire
des IA qui respectent et reflètent la diversité de notre société, une question
connexe émerge : comment, dans ce contexte, l’homme et la machine peuvent-ils
s’harmoniser et collaborer de manière optimale ? En façonnant des IA inclusives,
comment envisageons-nous ensuite notre coexistence et notre collaboration avec
ces technologies ? La nature de cette relation est au cœur de notre avenir avec
l’intelligence artificielle.

4.2. La complémentarité de l’homme et de l’IA


Pour repenser nos organisations et nos pratiques face au développement des
intelligences artificielles, des questions importantes se posent quant à la relation
à envisager entre ces IA et l’être humain. Guidés par des réflexions éthiques et
morales, nous devons aujourd’hui réfléchir au projet de société que nous
souhaitons développer pour le futur et à la manière dont nous envisageons notre
coexistence avec les IA. Quelle vision avons-nous pour notre avenir commun
avec ces systèmes ? Comment voulons-nous que nos interactions avec l’IA se
déroulent ? Comment risque d’évoluer la place de l’homme si les systèmes
deviennent de plus en plus autonomes avec l’intelligence artificielle ? L’homme
doit-il craindre l’IA ? L’intelligence artificielle va-t-elle complètement nous
remplacer dans nos activités et nos métiers ? Et si oui, quelle serait alors la place
de l’homme dans une société où la valeur fondatrice du travail pourrait
s’effacer ? Si nous ne sommes plus définis par nos professions ou nos
contributions économiques, comment redéfinirions-nous notre sens du but et de
la valeur ? Quelles activités, passions ou quêtes donneraient désormais un sens à
notre quotidien ? Pourrions-nous envisager un avenir où l’épanouissement
personnel, la créativité, l’apprentissage continu et les relations humaines
profondes prennent le devant de la scène, remplaçant ainsi notre actuelle
dépendance au travail comme principal vecteur d’identité et de réalisation ?
Comme nous l’avons évoqué, il existe plusieurs visions et perspectives sur ce
sujet du remplacement des métiers et activités de l’homme par l’IA. On trouve
d’abord une vision parfois perçue comme inéluctable, qui anticipe que oui, l’IA
pourrait à terme remplacer l’intégralité des métiers, le dernier en lice étant
probablement celui de chercheur en IA. Cette position débouche souvent sur de
profondes réflexions et débats sur notre avenir socio-économique. Face à une
telle transformation, comment garantir un revenu et une vie décente à ceux qui
ne peuvent plus travailler, car remplacés par les IA ? Une solution souvent mise
en avant dans ce contexte, est la notion de « revenu universel ». L’idée centrale
du revenu universel serait d’assurer un revenu de base à tous les citoyens en
taxant significativement les entreprises spécialisées dans le développement des
IA qui, de par leur avance technologique, concentreraient la majeure partie de la
richesse produite. Ces taxes seraient alors redistribuées uniformément à
l’ensemble des citoyens sous forme de revenu universel. Cette mesure serait
d’autant plus nécessaire dans un contexte de remplacement complet des emplois,
car si la majorité de la population n’est plus active professionnellement, il faudra
tout de même pouvoir garantir un certain revenu aux citoyens afin de leur
permettre de consommer les produits et services générés par ces IA. En effet, ce
serait même dans l’intérêt de ces entreprises qui développent et commercialisent
des IA d’avoir un tel revenu universel : sans consommateurs solvables, elles ne
pourraient pas écouler leurs produits et services. Cette vision est notamment
celle défendue par Sam Altman, un des créateurs d’OpenAI, qui imagine que
dans 10 ans seulement une majorité des métiers pourraient être remplacés. Dans
son blog il propose la création d’un American Equity Fund qui justement taxerait
les entreprises IA à hauteur de seulement 2,5 %, ce qui permettrait de verser à
l’ensemble des Américains l’équivalent d’un Smic (13 500 $ par an)81.
On trouve ensuite une autre vision, qui est une vision plus « schumpétérienne »
de l’IA. L’intelligence artificielle ne va pas remplacer tous les métiers, et va
sûrement au contraire, en créer de nouveaux. Ces nouveaux métiers pourraient
être ceux qui nécessitent une supervision, une maintenance ou une optimisation
des systèmes d’IA. De plus, des domaines entièrement nouveaux pourraient voir
le jour, nécessitant des compétences que nous ne pouvons pas encore anticiper
aujourd’hui.
La vérité pourrait bien se situer entre ces deux visions. Si l’IA est susceptible
de transformer profondément le paysage professionnel, il nous semble peu
probable qu’elle supprime totalement tous les métiers. Plus vraisemblablement,
elle fera grandement évoluer les professions existantes, amenant l’être humain et
la machine à collaborer de manière plus harmonieuse et complémentaire. Cette
complémentarité pourrait redéfinir les rôles et la valeur ajoutée de chaque partie,
créant une synergie où l’efficacité de l’IA est mise au service des compétences
intrinsèquement humaines.
En effet, on se rend compte que l’IA et l’être humain ont besoin l’un de l’autre
et doivent travailler « main dans la main ». Ils se complètent. Garry Kasparov
raconte avoir pris conscience de cette complémentarité plusieurs années après
avoir été battu par l’IA Deep Blue aux échecs. Ce champion du monde des
échecs s’est senti dépassé et a été extrêmement déçu, apeuré et en colère, lorsque
dans les années 1990 il a été vaincu par cette intelligence artificielle. Si une IA
arrivait à le battre aux échecs, cela signifiait qu’il n’avait plus sa place dans ce
domaine où il excellait. Cette défaite l’a profondément bouleversé et a entraîné
chez lui une grosse remise en question personnelle. Il explique à quel point ce
constat d’être remplacé par une machine a été difficile à admettre. Mais des
années plus tard, en prenant du recul sur la situation, il a pris conscience que ce
n’était peut-être pas la bonne conclusion à tirer de cette expérience. Certes, l’IA
est aujourd’hui indéniablement plus forte que l’homme aux échecs. Mais
l’homme et l’IA, lorsqu’ils opèrent ensemble, se trouvent en réalité être plus
forts que l’IA toute seule. L’alliance des deux est encore plus puissante : un
joueur d’échecs aidé d’une intelligence artificielle est en réalité plus performant
que l’IA ou l’homme seuls. La synergie entre l’intelligence de l’être humain et
l’efficacité de la machine optimise leur potentiel combiné. C’est ce qu’il
explique lors de sa présentation TEDx Don’t fear intelligent machine. Work with
them82. Voici ce qu’il affirme : « Les machines ont le calcul, nous avons la
compréhension. Les machines ont des instructions, nous avons un but. Les
machines ont l’objectivité, nous avons la passion. Nous ne devrions pas nous
inquiéter de ce que nos machines peuvent faire aujourd’hui. Nous devrions
plutôt nous inquiéter de ce qu’elles ne peuvent pas encore faire aujourd’hui, car
nous aurons besoin de l’aide des nouvelles machines intelligentes pour
transformer nos plus grands rêves en réalité83. » Si l’IA surpasse l’humain sur
des tâches bien spécifiques, il ne faut cependant pas exagérer ses capacités. L’IA
vient en complément des compétences de l’homme et devient un véritable
assistant virtuel efficace.
D’ailleurs on observe clairement cette complémentarité au quotidien, dans
notre utilisation des IA. Nous collaborons déjà tous les jours avec des
intelligences artificielles. Prenons l’exemple des traducteurs automatiques basés
sur de l’IA, tels que DeepL84. Si cet outil permet de traduire des textes de façon
automatique, il nous appartient ensuite d’ajuster la traduction selon notre style
ou le message que l’on souhaite véritablement transmettre. On est face à une
réelle coopération entre l’IA et l’homme et non une compétition. De même, dans
les chaînes de production par exemple, on observe de plus en plus la coopération
d’êtres humains avec des intelligences artificielles. On parle parfois de cobot,
pour désigner des robots collaboratifs qui marchent en interaction avec un être
humain.
Cette complémentarité est liée au fait que fondamentalement les IA et les
humains sont très différents. Comme le rappelle Yuval Noah Harari dans son
livre Homo Deus, nous avons cette peur d’être remplacés par les machines
lorsque l’on envisage l’intelligence en la découplant de la conscience. Même si
la voiture autonome va conduire à notre place, elle n’aura jamais la conscience et
l’expérience sensorielle que nous avons de notre environnement pendant la
conduite. Voici un extrait de son livre qui illustre bien cette distinction entre
l’homme et la machine : « Les expériences conscientes d’un chauffeur de taxi de
chair et de sang sont infiniment plus riches que celle d’une voiture autonome,
qui n’éprouve absolument rien. Le chauffeur de taxi peut écouter de la musique
en sillonnant les rues encombrées de Séoul. Il peut ouvrir de grands yeux
admiratifs en regardant les étoiles et en contemplant les mystères de l’univers.
Ses yeux peuvent s’emplir de larmes de joie quand il voit une petite fille faire
ses premiers pas. Mais le système n’a pas besoin de tout cela chez un chauffeur
de taxi. Tout ce qu’il veut c’est qu’il puisse conduire des passagers d’un point A
à un point B aussi rapidement, sûrement et bon marché que possible. » (Noah
Harari, 2017, p. 334-335) Ainsi, la voiture autonome remplacera probablement
le chauffeur de taxi et c’est sûrement pour le mieux quand on regarde les chiffres
de mortalité sur la route liée à l’activité humaine. Mais cet exemple nous
rappelle que ces expériences conscientes vécues par les humains sont leur force
et leur particularité. Il est essentiel de repenser nos activités en mettant l’accent
sur ces spécificités humaines. Nous devrions valoriser ce qu’il y a de plus
humain en nous et orienter nos métiers vers ces forces.
L’humain demeure irremplaçable. Bien que l’on parle de « réseaux de
neurones » pour décrire les algorithmes de deep learning, telle une imitation de
notre propre cerveau, il convient de rappeler qu’il ne s’agit nullement de
reproduire fidèlement un cerveau humain à l’aide de simples statistiques. De
même qu’un avion est une imitation d’un oiseau lorsqu’il s’agit de voler, il
subsiste que la vie d’un avion n’a rien à voir avec celle d’un oiseau. Le test de
Turing ne s’appelle pas The Imitation Game pour rien. Avec l’IA, il s’agit d’un
simple jeu d’imitation. La machine n’est pas intelligente, elle ne comprend ni n’a
conscience de ce qu’elle fait, mais elle en a l’apparence. Et un jour, l’IA pourra
même imiter une certaine intelligence émotionnelle en respectant les codes qui
régissent les échanges entre humains, ce qui pourrait perturber bon nombre
d’entre nous. Mais tout cela ne restera que de l’imitation réalisée à partir de
données fournies en entraînement. Il faut se souvenir que les IA sont des
instruments que l’homme doit savoir utiliser à bon escient, en occupant un rôle
complémentaire. On dit souvent que sans data pas d’IA. Mais rappelons aussi
que sans humain, il n’y a ni data, ni intelligence artificielle. C’est l’humain qui
alimente ces systèmes avec des données et qui développe les IA. Il a un rôle
particulier à jouer dans la production et la sélection de données pour entraîner les
algorithmes, notamment pour éviter les biais. L’IA a besoin de savoir ce qui est
correct ou non et l’être humain est là pour le lui indiquer, tel un coach.
L’implication indispensable de l’être humain dans le développement et
l’exploitation des IA, est souvent évoquée par le concept de human-in-loop,
littéralement « homme dans la boucle ». Ce concept souligne la nécessité de
maintenir l’humain au cœur des systèmes automatisés, non seulement pour
superviser, mais également pour affiner et guider les décisions prises par l’IA.
Prenons l’exemple du modèle de génération de texte d’OpenAI, GPT-3. Bien que
révolutionnaire dans ses capacités, ce modèle n’était pas exempt de défauts. L’un
des plus notables était la présence de biais inhérents aux textes sur lesquels il
avait été formé, notamment ceux provenant de Reddit, une plateforme où toutes
les opinions ne sont pas toujours nuancées ou factuelles. Ces biais, lorsqu’ils ne
sont pas contrôlés, peuvent influencer la manière dont le modèle génère ses
textes, avec des conséquences potentiellement problématiques. Face à ce défi,
l’approche human-in-loop s’est avérée essentielle. En intégrant l’expertise
humaine directement dans le processus d’amélioration, OpenAI a pu concevoir
InstructGPT. Ce nouveau modèle, tout en conservant les capacités de génération
de texte avancées, bénéficie également des évaluations, corrections, et
perspectives humaines. En combinant la puissance de l’IA avec le discernement
et la sensibilité humaine, on obtient un outil plus robuste, fiable et adapté aux
besoins des utilisateurs.
Rappelons également, que c’est l’homme qui au départ fait le choix de ce qui
est ou de ce qui devrait être automatisable ou non. Il évalue la pertinence, les
avantages, et les implications éthiques de déléguer une tâche à une machine ou
de la conserver sous le contrôle humain. Cette décision repose souvent sur une
combinaison de facteurs techniques, économiques et sociaux. Et puis
l’intelligence artificielle n’est pas un outil magique qui déciderait seul de ce qu’il
doit faire et qui serait doué d’une volonté propre. L’IA ne prend pas d’initiatives
indépendantes et n’est pas dotée d’un sens intrinsèque de la direction ou de la
finalité. Son fonctionnement est strictement encadré par les paramètres, les
données et les objectifs que lui assignent les concepteurs. In fine, l’algorithme
maximise toujours un résultat. Et l’intervention de l’humain est primordiale pour
définir ce qu’il faut maximiser. L’IA s’entraîne avec des data, elle ajuste seule
ses modèles, mais ce sont toujours des humains qui doivent fixer l’objectif et
faire des ajustements complémentaires. De façon générale, du fait de la nature
complémentaire de l’Homme et de l’IA, l’Homme intervient toujours. Si les
systèmes sont de plus en plus autonomes, certains arbitrages ne pourront jamais
être faits par des machines et doivent absolument être effectués par les humains.
Beaucoup de chercheurs estiment notamment que ce n’est pas aux intelligences
artificielles de prendre certaines décisions, en particulier car elles ne sont pas
capables de ressentir du regret par exemple. L’expérience émotionnelle et
consciente de l’humain est primordiale pour développer des IA qui fonctionnent
correctement.
Je conclurais cette partie en citant Toby Walsh, qui dans son livre Machines
that think souligne assez bien à quel point la collaboration entre l’être humain et
l’IA est essentielle : « Nous pouvons faire mieux que les humains ou les
machines seuls si nous faisons travailler ensemble les humains et les machines.
Les humains peuvent apporter leurs forces : leur créativité, leur intelligence
émotionnelle, leur éthique et leur humanité. Et les machines peuvent apporter
leurs forces : leur précision logique, leur capacité à traiter des montagnes de
données, leur impartialité, leur rapidité et leur infatigabilité. Nous devons cesser
de considérer les machines comme des concurrents mais bel et bien comme des
alliés85. » (Walsh, 2018)

4.3. L’évolution des métiers et des compétences


Au lieu de passer trop de temps à se faire peur ou à s’enthousiasmer sur le
développement des IA et l’automatisation des tâches, il semble essentiel de
considérer comment nous pouvons et souhaitons nous adapter à ces changements
majeurs. En effet, les bouleversements technologiques actuels modifient
profondément les pratiques mais aussi les métiers tels que nous les connaissons.
Le site de Pôle Emploi le dit lui-même : « 85 % des emplois de 2030 n’existent
pas encore ! »86 Comment pouvons-nous gérer cette incertitude et surtout quelles
compétences sont essentielles pour s’adapter à ces évolutions constantes ?
Une étude de 2018 conduite par le cabinet de conseil McKinsey estime que
dans le futur il sera nécessaire de privilégier certaines compétences en particulier
pour mieux travailler avec les IA, comme la créativité, la prise d’initiative, la
programmation informatique mais aussi et surtout les compétences sociales et
émotionnelles87. D’une façon générale, il sera essentiel de valoriser ce qui nous
distingue des machines. Nous devons travailler sur ce qui fait de nous des
humains et développer ces aptitudes. On attendra probablement des employés de
demain une capacité à avoir des compétences « encore plus humaines » et à se
recentrer sur ce qui fait la force des êtres humains. Des qualités comme la
transdisciplinarité, la polyvalence, la capacité d’adaptation mais aussi les
fameuses soft skills telles que la coopération, l’empathie, la créativité, l’art du
doute, l’esprit critique et l’écoute seront sans doute des compétences clés et
différenciantes.
À mesure que les tâches s’automatiseront, les aspects humains deviendront
encore plus centraux, dans de nombreux métiers. Prenons l’exemple du métier
de radiologue : plusieurs études suggèrent que la reconnaissance automatisée
d’image devrait rendre ce métier entièrement automatisable. De nombreuses
professions liées au diagnostic médical pourraient ainsi disparaître, comme c’est
déjà le cas dans une certaine mesure pour les mammographies par exemple.
Pourtant le rôle des humains dans ces métiers ne va pas disparaître, mais sera
plutôt amené à grandement évoluer88. Le métier de radiologue sera moins
d’analyser les résultats médicaux que de proposer un rapport humain que les IA
ne peuvent clairement pas garantir. S’il faut transmettre une mauvaise nouvelle
par exemple, un contact humain capable de rassurer le patient est indispensable,
nécessitant une certaine sensibilité, attention et empathie. Les aptitudes
considérées comme intrinsèquement humaines telles que la gestion et la
compréhension des émotions seront ainsi centrales dans ces métiers. C’est sur
ces types de compétences que nous devrons nous concentrer. Ainsi, comme le dit
si bien Charles Cuvelliez, professeur à l’École polytechnique de Bruxelles :
« Arrêtons de penser que l’IA va tout emporter sur son passage. Organisons-nous
tout simplement pour exceller là où on sait qu’elle ne nous remplacera pas89. »
Selon plusieurs experts, l’une des principales préoccupations concernant l’IA
qu’il faut considérer n’est pas qu’elle nous remplacera et prendra le dessus, mais
plutôt qu’elle pourrait nous inciter à négliger et à ne plus développer nos propres
compétences et spécificités humaines (Dejoux, 2020). Là réside le véritable
danger : devenir oisifs et excessivement dépendants des technologies. Même si
nous déléguons et externalisons de plus en plus de tâches aux machines, il est
primordial de ne pas perdre de vue nos propres compétences. Ainsi, il est
nécessaire de travailler à exceller dans les domaines dans lesquels nous savons
d’ores et déjà que l’automatisation et l’intelligence artificielle ne nous
remplaceront jamais.
Outre les compétences considérées comme fondamentalement humaines
aujourd’hui, telles que la créativité ou l’intelligence émotionnelle et sociale, les
compétences techniques liées à la technologie et au développement informatique
seront évidemment extrêmement valorisées elles aussi. Les compétences en
programmation et en statistiques, entre autres, seront incontournables. Dans les
faits, l’intelligence artificielle a pourtant commencé à transformer ces métiers
techniques, en remplaçant les humains dans de nombreuses tâches. Par exemple,
des outils d’IA peuvent déjà optimiser du code informatique bien plus
rapidement qu’un humain ou identifier des erreurs et des bugs. Néanmoins, le
besoin de professionnels capables de comprendre en profondeur ces technologies
ne diminuera pas pour autant, bien au contraire. Ces experts seront essentiels
pour superviser les opérations, interpréter les résultats, et gérer les aspects plus
nuancés et complexes du développement informatique qui dépendent toujours
d’une intervention et d’un discernement humains. De façon générale, il sera
également essentiel de maîtriser le vocabulaire nécessaire pour échanger avec les
techniciens et spécialistes de l’IA. Avoir une vraie culture de l’IA est déjà une
nécessité dans un monde où l’automatisation est de plus en plus présente. Il
faudra à la fois connaître les risques et enjeux éthiques liés à l’IA, tout en
maîtrisant les concepts principaux. Comprendre le fonctionnement des IA et
apprendre à travailler avec elles devient ainsi de plus en plus incontournable.
L’humain devra être capable d’interagir avec ces IA de façon pertinente et
surtout avoir une connaissance éclairée du meilleur moment pour laisser agir
l’IA ou au contraire prendre le relai et intervenir. Des nouvelles compétences
vont émerger et se renforcer comme la capacité à favoriser la collaboration et à
communiquer, à générer de l’intelligence collective, et à être sensible aux biais et
enjeux éthiques. Les méthodes agiles telles que le design thinking par exemple,
semblent être très appropriées pour s’adapter aux changements à venir et
coopérer sereinement avec les machines.
Avec l’avènement des IA génératives, comme ChatGPT ou Midjourney par
exemple, une nouvelle compétence est également apparue sur le devant de la
scène : l’art du prompt engineering. Il s’agit de la capacité à formuler des
instructions (des prompts) à une IA pour obtenir le résultat souhaité. Les IA
génératives sont certes très puissantes et impressionnantes, mais leur capacité à
générer des réponses de qualité dépend grandement de la manière dont on les
interroge. Si l’instruction est vague, l’IA pourrait produire une réponse qui, bien
que grammaticalement correcte, pourrait ne pas être pertinente. L’art du prompt
engineering nécessite une compréhension profonde de la manière dont l’IA traite
les informations et génère des réponses. C’est un équilibre entre comprendre la
technologie sous-jacente et posséder la finesse linguistique pour formuler des
prompts efficaces. Ainsi, comprendre comment ces systèmes fonctionnent et
savoir dialoguer avec eux de façon efficace va devenir progressivement un atout
différenciant et important.
Pour résumer les compétences attendues pour les métiers futurs, Toby Walsh
évoque un « triangle des opportunités » constitué de trois piliers essentiels (voir
Figure 47) : (1) le développement informatique et la maîtrise technologique, y
compris la capacité à interagir efficacement avec les IA ; (2) l’intelligence
émotionnelle et les compétences intrinsèquement humaines et (3) la créativité
(Walsh, 2018).
Figure 47. Le triangle des opportunités d’après Toby Walsh

Source : autrice ; pictogrammes issus de pngtree.com et vecteezy.com

Nous avons vu que les IA pouvaient se montrer créatives, en particulier les IA


génératives qui ont prouvé leur capacité à créer des œuvres inédites et originales
dans l’art par exemple. Pour autant leur mode de fonctionnement a des limites
intrinsèques. Les IA, par essence, s’appuient sur des données préexistantes pour
entraîner leurs algorithmes à l’origine de leurs créations. Elles sont, en quelque
sorte, conservatrices, puisqu’elles extrapolent à partir de ce qu’elles ont été
entraînées à reconnaître et à reproduire. On pourrait cependant suggérer que la
créativité de l’être humain fonctionne de façon similaire. Après tout, nous avons
tendance à naturellement nous inspirer de nos expériences, de ce que l’on a vu
par le passé et de notre environnement. D’ailleurs Picasso disait : « Les bons
artistes copient, les grands artistes volent. » Pour autant l’être humain possède
une nuance que la machine ne connaît pas. Les humains, par moments, grâce à
des éléments tels que le hasard, les intuitions ou même les erreurs, peuvent sortir
des sentiers battus, transcendant ainsi les conventions et les normes établies. À
l’inverse une IA est justement entraînée à partir de ces normes établies et ne peut
donc pas en sortir. Cette aptitude à la spontanéité créative, à l’exploration sans
contrainte préalable, demeure une distinction unique de la créativité humaine.
Comme vous le savez sûrement, une grande partie des grandes innovations et
inventions que nous connaissons sont nées d’erreurs. Par exemple, Alexander
Fleming, n’aurait pas découvert la pénicilline s’il n’avait pas laissé ses cultures
se contaminer de façon accidentelle. Ce type de découverte hasardeuse porte
d’ailleurs un nom : la sérendipité. Dans un monde dominé par les algorithmes,
les prédictions et l’analyse incessante des données, y a-t-il encore de la place
pour la sérendipité ? L’ère actuelle, souvent décrite comme l’ère de
l’information, est marquée par une précision sans précédent, où chaque décision,
chaque création, s’ancre dans des modèles prédictifs et des bases de données
immenses. Dans un tel contexte, le hasard et la découverte fortuite semblent
presque désuets. Et pourtant, cette imprévisibilité, cette capacité à trébucher sur
une idée ou une innovation de manière inattendue, pourrait être le contrepoids
nécessaire à une dépendance excessive aux données. Peut-être que c’est
précisément dans ces interstices, là où la machine ne peut anticiper, que l’humain
trouve encore l’opportunité de surprendre, d’innover et, finalement, de
démontrer sa véritable singularité.
Nous ne savons pas encore quels seront les métiers de demain. Mais en
connaissant nos forces et nos qualités différenciantes des IA, nous pouvons
d’ores et déjà travailler à développer ces compétences qui font de nous des
humains et qui nous aideront à tirer le plus grand bénéfice de ces technologies.

4.4. Vers quel projet de société ?


Enfin, pour clôturer cette réflexion sur les risques et enjeux éthiques des IA, il
nous paraît important de nous questionner sur le modèle de société vers lequel
nous nous dirigeons en adoptant ces technologies à un rythme sans précédent.
Nous l’avons vu, les IA sont de plus en plus performantes, pertinentes et
permettent des applications toujours plus intéressantes et révolutionnaires. Notre
progression technologique est fulgurante, avec des IA plus avancées et des
algorithmes de plus en plus gros, nourris par d’immenses volumes de données et
capables d’accomplir un nombre croissant de tâches. Mais avons-nous
véritablement pris le temps de mesurer les répercussions profondes de ces
évolutions sur notre société ? Intégrer massivement de la donnée et de
l’intelligence artificielle dans toutes les sphères de notre vie n’est pas sans
conséquence. Comme le dit Dominique Cardon, dans son livre À quoi rêvent les
algorithmes : nos vies à l’heure des big data, la façon dont nous concevons et
créons ces IA, les significations qu’elles génèrent et comment nous interprétons
leurs résultats façonnent les mondes sociaux dans lesquels nous évoluons
(Cardon, 2015). En effet, dans notre ère numérique en plein essor, l’intelligence
artificielle transforme progressivement et subtilement notre manière de voir le
monde. Ces technologies, en choisissant quelles informations mettre en avant ou
en retrait, en recommandant des produits ou des contenus ou même en prédisant
nos comportements futurs, fabriquent notre réel, influencent les normes et la
hiérarchisation des valeurs qui définissent notre culture et nos sociétés (Cardon,
2015).
L’IA, à travers son approche largement basée sur la statistique, impose un
mode de vérité où la réalité tend à se confondre avec l’indicateur censé la
représenter (Meneceur, 2020). En effet, nous donnons souvent à la statistique le
pouvoir de dicter ce que nous devrions penser de notre environnement, au point
où des éléments comme la courbe du chômage ou le taux de criminalité
dominent le discours public plutôt que les réalités qu’ils sont censés représenter
(Meneceur, 2020). Dans son livre Pourquoi la société ne se laisse pas mettre en
équations, Pablo Jensen, démontre qu’il y a une tendance quasi systématique de
quantification de la plupart de nos activités : croissance économique,
performance des écoles, prévision du temps, gestion des épidémies ou de la
criminalité, et ainsi de suite (Jensen, 2018). Cette tendance, nous l’avons vu,
s’est amplifiée avec le concept de datafication. L’objectif ? Traduire le monde et
ses activités en traces chiffrées pour le rendre intelligible et analysable. D’après
Pablo Jensen, ceci permettrait de « dévoiler les lois cachées qui sous-tendent
notre société complexe, comme les physiciens l’ont fait pour la matière. Grâce à
ces lois, on pourra fabriquer des sociétés virtuelles où seront testés des scénarios
d’évolution des systèmes sociaux pour choisir les meilleurs » (Jensen, 2018,
p. 18). Mais d’après ce physicien, cette approche de quantification ne devrait pas
être extrapolée à la société car selon lui, « nous ne sommes pas des atomes
sociaux ». En effet, comme le dit si justement Cardon, « les algorithmes qui se
disent prédictifs ne le sont pas parce qu’ils seraient parvenus à entrer dans la
subjectivité des personnes pour sonder leurs désirs ou leurs aspirations. Ils sont
prédictifs parce qu’ils font constamment l’hypothèse que notre futur sera une
reproduction de notre passé » (Cardon, 2015, p. 70). Il ne faut donc pas
confondre la prédiction basée sur des données historiques avec une véritable
compréhension de la nature humaine. Si nous nous fions uniquement à ce que
l’algorithme prévoit à partir de notre passé, nous risquons de perdre la capacité
d’innover et de changer, mais aussi d’écouter nos aspirations et nos rêves.
S’appuyer sur le Big Data et les IA pour comprendre, prédire les
comportements sociaux et décider d’actions publiques, c’est adopter une
interprétation calculatoire du monde, dans laquelle l’approche statistique
prédomine (Meneceur, 2020). Dans une telle approche, nous pourrions perdre de
vue notre véritable projet de société, notre cadre idéologique, politique et
philosophique. L’une des grandes allégations en faveur des algorithmes est leur
prétendue neutralité : ils traitent des données sans préjugés ni émotions,
produisant des résultats sans biais humains. Cependant, cette neutralité est
souvent une illusion. Les algorithmes, aussi avancés soient-ils, sont conçus par
des humains et des données issues des comportements humains avec leurs
propres biais et perspectives. Nous l’avons vu, la qualité des résultats dépend
largement de la qualité des données utilisées pour l’entraînement de ces
algorithmes. Si ces données sont biaisées, les résultats en sortie le seront tout
autant. Cette supposée neutralité algorithmique est donc un leurre, car elle donne
une légitimité scientifique à des décisions qui peuvent être profondément
influencées par des biais et choix humains sous-jacents.
Nate Silver, avec sa déclaration provocatrice, « l’avenir est une équation »,
nous incite à réfléchir sur ce sujet (Dugain & Labbé, 2016). En effet, souhaitons-
nous vraiment un avenir où la prétendue objectivité des chiffres domine ?
Voulons-nous d’un monde où tout est prédictible, où chaque élément de notre
existence est réduit à une simple équation ? Cette aspiration à une apparente
neutralité algorithmique et technologique, ce fantasme selon lequel la quantité
d’informations ferait sens, semble s’apparenter à un moyen de débarrasser le
monde de son imprévisibilité, de son essence humaine. Mais est-ce vraiment le
monde que nous voulons ? Une vision où la réalité est constamment filtrée à
travers les lentilles des algorithmes ? Un monde où chaque expérience, chaque
décision, est influencée, sinon dictée, par une série de calculs ? Ou aspirons-nous
plutôt à un monde où la technologie enrichit l’expérience humaine plutôt que de
la diluer ?
Les écrivains et journalistes Dugain et Labbé, quant à eux, dressent un tableau
assez sombre de la situation actuelle. Ils évoquent une « mise sous cloche des
individus » orchestrée par les acteurs majeurs du Big Data. Selon eux, ces firmes
technologiques, d’influence incontestable, instaurent une véritable
« gouvernementalité algorithmique » (Dugain & Labbé, 2016). Ces entreprises
semblent aspirer à un modèle de société où chaque individu est continuellement
surveillé, analysé et influencé dans ses choix. Les auteurs décrivent un monde où
l’humain serait dissocié de lui-même, réduit à un objet contrôlable sans avoir
besoin de contrainte ni de violence. Ils parlent d’une vision orwellienne, bien
plus subtile et insidieuse, où la transparence absolue, la disparition de la vie
privée et la perte de la liberté et de l’esprit critique sont échangées contre la
prévisibilité, la sécurité et l’allongement de la durée de vie. Une « Big Mother »,
qui, tout en prétendant savoir ce qui est bon pour nous, nous dépossède
finalement de nous-mêmes, le tout avec notre consentement (Dugain & Labbé,
2016).
Beaucoup s’accordent à dire qu’il y a une menace sourde qui pèse sur notre
liberté individuelle qui, selon Meneceur, se produit en dehors de tout débat et
approbation démocratique. L’impact de ces technologies est à la fois vaste et
profond, touchant tous les aspects de nos vies. Leur omniprésence remodèle
notre existence à un niveau qui va bien au-delà de la simple commodité.
Aujourd’hui, on le constate déjà avec ces IA qui s’immiscent désormais dans nos
interactions sociales, dictant parfois la manière dont nous communiquons, avec
des algorithmes qui filtrent nos flux d’informations sur les réseaux sociaux,
influençant nos opinions et nos choix. Elles s’intègrent également à nos
habitudes quotidiennes, avec des objets connectés qui surveillent notre santé,
notre sommeil, ou même nos habitudes alimentaires. Certaines applications vont
jusqu’à nous suggérer quand boire de l’eau, faire de l’exercice, ou nous reposer.
Ces technologies modèlent aussi la manière dont nous nous percevons et
sommes perçus par les autres. Par exemple, l’identité numérique, façonnée par
nos interactions en ligne et les informations que nous partageons, peut parfois
prendre le pas sur notre identité réelle, conduisant à une forme de dualité entre
qui nous sommes en ligne et hors ligne. Ainsi, ces technologies façonnent non
seulement notre confort, mais aussi notre perception du monde, nos
comportements et notre identité même. Dans un futur proche, l’emprise
technologique pourrait s’accentuer, notamment parce que les contreparties
offertes seront de plus en plus intéressantes. Il n’est pas improbable d’envisager
que nous porterons des lentilles connectées capables d’analyser chaque personne
que nous croisons pour nous fournir en temps réel des informations sur elle ou
encore que nous ayons des implants cérébraux nous suggérant des pensées ou
régulant nos émotions pour une « meilleure qualité de vie » par exemple. Un
monde où chaque parcelle de notre quotidien serait enregistrée, analysée et
utilisée pour influencer nos actions et décisions futures sans que nous en soyons
conscients. Tout cela avec des technologies d’IA qui s’appuient sur d’immenses
volumes de données, potentiellement biaisées et qui sont par nature,
conservatrices. Dans son livre Homo Deus, Yuval Noah Harari fait l’hypothèse
d’un monde où les IA, qui nous recommandent déjà beaucoup de choses dans
notre quotidien, pourraient nous suggérer non seulement nos préférences, mais
aussi nos partenaires de vie :
« Nombre d’entre nous serions heureux de remettre une bonne partie de nos
décisions entre les mains d’un tel système, ou tout au moins de le consulter
chaque fois que nous sommes confrontés à des choix importants. Google nous
conseillera quel film voir, où aller en vacances, quelle matière étudier à la fac,
quelle offre d’emploi accepter, voire avec qui sortir et qui épouser. “Écoute,
Google, expliquerai-je. John et Paul me draguent. Je les aime tous les deux, mais
chacun à sa façon, et il est difficile pour moi de trancher. Compte tenu de tout ce
que tu sais, que me conseilles-tu de faire ?” Et Google répondra : “Bon, je te
connais depuis ta naissance. J’ai lu tous tes mails, enregistré tous tes appels
téléphoniques, je connais tes films préférés, ton ADN et toute ton histoire
sentimentale. J’ai des données exactes sur tous tes rendez-vous et, si tu le
souhaites, je peux te montrer des graphiques, seconde après seconde, de ton
rythme cardiaque, de ta tension et de ton niveau de glucose chaque fois que tu es
sorti avec John ou Paul. Au besoin je peux te donner un classement
mathématique précis de chacune de tes relations sexuelles avec l’un d’eux. Et,
naturellement, je les connais comme je te connais. Sur la base de tous ces
renseignements, de mes superbes algorithmes et la foi de décennies de
statistiques sur des millions de relations, je te conseille de sortir avec John, avec
87 % de chances que tu sois plus satisfait avec lui à la longue. En vérité, je te
connais si bien que je sais aussi que cette réponse ne te plaît pas. Paul est
beaucoup plus beau que John, et comme tu accordes trop d’importance au
physique, tu souhaitais secrètement que je te dise ‘Paul’. L’apparence compte,
bien entendu, mais pas autant que tu le crois. Tes algorithmes biochimiques – qui
ont évolué sur des dizaines de milliers d’années dans la savane africaine –
donnent à l’apparence un poids de 35 % dans l’évaluation globale de partenaires
potentiels. Mes algorithmes, qui s’appuient sur les études et les statistiques les
plus récentes, indiquent que l’apparence ne compte que pour 14 % dans la
réussite à long terme des relations amoureuses. Donc, même en prenant en
compte l’apparence de Paul, je persiste à affirmer que ça marchera mieux avec
John.” En échange de conseils aussi précieux, il nous faudra simplement
renoncer à l’idée que les êtres humains sont des individus, que chaque humain a
son libre arbitre pour déterminer ce qui est bien, ce qui est beau, et le sens de la
vie. Les humains cesseront d’être des entités autonomes pilotées par les histoires
qu’invente leur moi narrateur. Ils feront plutôt partie intégrante d’un immense
réseau global. » (Noah Harari, 2017, p. 362-363)
Est-ce vraiment le monde que nous désirons ? Une révolution numérique qui,
au lieu de nous offrir plus d’opportunités, pourrait nous pousser vers un état de
docilité, de servitude volontaire, où le résultat final serait, comme l’ont
mentionné Dugain et Labbé, « la disparition de la vie privée et un renoncement
irréversible à notre liberté ». L’enjeu ultime semble être notre liberté de choix et
de pensée. À mesure que nous nous appuyons graduellement sur les prédictions
des IA, nous risquons de nous éloigner des chemins originaux de notre pensée.
L’IA, dans sa quête de certitude, pourrait nous déposséder de ce qui fait de nous
des humains : nos rêves, notre créativité, notre conscience de soi et des autres,
ainsi que notre imagination. En fin de compte, alors que nous nous dirigeons
vers un futur modelé par les technologies, il est essentiel de se rappeler notre
humanité intrinsèque. Car, contrairement aux machines, l’humain possède
l’intuition, cette capacité à prendre des décisions guidées par l’émotion, qui lui
confère à la fois son génie et son imprévisibilité. Plutôt que de simplement
s’adapter, il est temps de façonner activement le futur et le projet de société que
nous souhaitons, en gardant à l’esprit ce qui nous rend vraiment humains.
Alors, face à cette montée en puissance de l’IA et à ses implications
potentiellement positives mais aussi dangereuses pour la société, il est plus
essentiel que jamais de se poser ces questions fondamentales. Voulons-nous
vraiment un avenir dominé par des algorithmes et des statistiques, ou aspirons-
nous à un monde où l’humain, avec toutes ses imperfections et son génie, reste
au centre ? Se poser constamment cette question nous aidera à déterminer le
projet de société vers lequel nous nous dirigeons en développant ces IA. Elle doit
nous guider sur la manière dont nous intégrons les IA dans nos vies et dans nos
sociétés, quelles relation et place nous leur donnons, pour en tirer le meilleur.

1. https://marketsplash.com/fr/statistiques-google/#link1
2. https://fr.statista.com/infographie/9418/gafam-rachats-et-acquisitions-de-startups-ia/
3. https://www.lafinancepourtous.com/decryptages/finance-et-societe/nouvelles-economies/gafa-gafam-ou-
natu-les-nouveaux-maitres-du-monde/
4. https://www.lesechos.fr/industrie-services/conso-distribution/alibaba-amazon-un-duel-de-geants-1147551
5. https://www.francetvinfo.fr/culture/series/netflix/derriere-nos-ecrans-de-fumee-le-documentaire-qui-va-
peut-etre-vous-sevrer-des-reseaux-sociaux_4115743.html
6. https://www.nouvelobs.com/economie/20190617.OBS14526/libra-10-choses-a-savoir-pour-tout-
comprendre-a-la-future-monnaie-virtuelle-de-facebook.html
7. https://techland.time.com/2011/05/16/5-questions-with-eli-pariser-author-of-the-filter-bubble/
8. https://twitter.com/soft/status/1449406390976409600/photo/1
9. Citation originale : “We had better be quite sure that the purpose put into the machine is the purpose
which we really desire.”
10. https://www.washingtonpost.com/technology/2021/10/26/facebook-angry-emoji-algorithm/
11. https://www.cerveauetpsycho.fr/sd/comportement/smartphones-et-reseaux-sociaux-ces-6-biais-qui-
nous-rendent-accro-22595.php
12. https://www.senat.fr/compte-rendu-commissions/20230619/tiktok.html
13. Citation originale : “[…] the purpose which we really desire and not merely a colorful imitation of it.”
14. https://www.lexpress.fr/monde/europe/attentat-de-londres-uber-rembourse-ses-clients-leses-apres-l-
attaque_1914817.html
15. https://www.lemonde.fr/pixels/article/2020/12/05/apres-le-licenciement-d-une-chercheuse-noire-et-
militante-google-somme-de-s-expliquer_6062328_4408996.html
16. https://www.reuters.com/article/us-alphabet-google-research-focus-idUSKBN28X1CB
17. Citation originale : “Facebook has realized that if they change the algorithm to be safer, people will
spend less time on the site, they’ll click on less ads, they’ll make less money.”
18. https://zimbabwe.misa.org/2019/09/20/chinese-firms-are-driving-the-rise-of-ai-surveillance-across-
africa/
19. https://ai-watch.ec.europa.eu/countries/france/france-ai-strategy-report_en
20. https://www.vie-publique.fr/en-bref/38586-rapport-villani-sur-lintelligence-artificielle-lessentiel
21. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
22. https://obamawhitehouse.archives.gov/blog/2016/10/12/administrations-report-future-artificial-
intelligence
23. https://www.technologyreview.com/2019/05/31/135129/why-does-china-suddenly-care-about-ai-ethics-
and-privacy/
24. https://www.20minutes.fr/monde/2090827-20170620-chine-visages-pietons-indisciplines-affiches-rue-
grand-ecran
25. https://www.cnetfrance.fr/news/en-chine-des-capteurs-d-ondes-cerebrales-pour-aider-les-eleves-a-se-
concentrer-39895723.htm
26. Citation originale : “I think Chinese people are more open and less sensitive about the privacy issue. If
they are able to trade privacy for convenience, for safety, for efficiency — in a lot of cases, they’re willing
to do that.” https://www.sixthtone.com/news/1001996/are-chinese-people-less-sensitive-about-privacy%3F
27. https://www.cnil.fr/sites/cnil/files/atoms/files/reconnaissance_faciale.pdf
28. https://thispersondoesnotexist.com/
29. https://www.youtube.com/watch?v=9eiBQtL1cV8
30. https://www.washingtonpost.com/opinions/2022/03/23/zelensky-geopolitical-deepfake-reaction-
disarmed/
31. https://www.hrw.org/fr/report/2018/08/21/repondre-lappel/linterdiction-des-robots-tueurs-un-imperatif-
moral-et-juridique
32. https://futureoflife.org/2016/02/09/open-letter-autonomous-weapons-ai-robotics/
33. https://www.lesechos.fr/2016/03/microsoft-fait-taire-son-intelligence-artificielle-sur-twitter-apres-des-
derapages-204855
34. https://www.planetoscope.com/electronique/230-energie-consommee-par-les-data-centers.html
35. https://www.senat.fr/rap/r19-555/r19-55511.html
36. https://www.bcg.com/publications/2022/how-ai-can-help-climate-change
37. https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics
38. https://www.moralmachine.net/hl/fr
39. https://www.association-droit-robot.fr/
40. https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.pdf?redirect
41. https://www.business-humanrights.org/fr/derni%C3%A8res-actualit%C3%A9s/le-pdg-de-google-
sexprime-sur-la-n%C3%A9cessit%C3%A9-de-r%C3%A9glementer-lintelligence-artificielle-pour-une-
utilisation%C3%A9thique/
42. https://www.standards-global.com/product/BS-8611-2016/
43. https://partnershiponai.org/
44. https://www.lesechos.fr/2017/11/ibm-sallie-a-bmi-system-pour-la-gestion-des-donnees-personnelles-en-
entreprise-187151
45. https://www.lemonde.fr/idees/article/2019/06/12/les-violations-du-rgpd-et-leur-mediatisation-ont-
beaucoup-nui-a-la-confiance-des-consommateurs_5475332_3232.html
46. https://aix360.res.ibm.com/
47. https://www.humane-ai.eu/vision/
48. https://www.weforum.org/agenda/2023/06/european-union-ai-act-explained/
49. https://standards.ieee.org/industry-connections/ec/autonomous-
systems/#:~:text=Intelligent%20Systems%20(ECPAIS)-
,The%20Ethics%20Certification%20Program%20for%20Autonomous%20and%20Intelligent%20Systems%20(ECPAIS,in%
50. https://www.labelia.org/
51. https://aif360.mybluemix.net/
52. https://pair-code.github.io/what-if-tool/
53. https://github.com/pymetrics/audit-ai
54. https://orcaarisk.com/
55. https://www.accenture.com/fr-fr/services/ai-artificial-intelligence-index
56. https://www.pwc.fr/fr/vos-enjeux/data-intelligence/intelligence-artificielle.html
57. https://www.holbertonturingoath.org/
58. https://hippocrate.tech
59. https://www.ordre-avocats-cassation.fr/
60. https://www.statista.com/chart/25691/highest-fines-for-gdpr-breaches/
61. https://www.cnil.fr/fr/les-bases-legales/consentement
62. https://linc.cnil.fr/fr/cookieviz-23-une-nouvelle-version-plus-securisee-plus-stable-et-une-mise-en-
avant-du-role-des
63. https://www.cnil.fr/fr/lanonymisation-de-donnees-personnelles
64. https://www.cnil.fr/fr/mes-demarches/les-droits-pour-maitriser-vos-donnees-personnelles
65. https://www.cnil.fr/fr/RGPD-analyse-impact-protection-des-donnees-aipd
66. https://www.cnil.fr/sites/cnil/files/atoms/files/guide_pratique_rgpd_-
_delegues_a_la_protection_des_donnees.pdf
67. https://www.cnil.fr/fr/notifier-une-violation-de-donnees-personnelles
68. Voici un exemple d’un développeur qui a signalé sur Twitter (X), avoir constaté que Copilot suggérait
du code informatique issu de son propre projet sous copyright.
https://x.com/DocSparse/status/1581461734665367554?s=20
69. https://www.ieepi.org/chatgpt-et-propriete-intellectuelle/
70. https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELE:52021PC0206
71. https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-
ever-rules-for-safe-and-transparent-ai
72. https://www.vie-publique.fr/eclairage/18495-le-developpement-de-lintelligence-artificielle-risque-ou-
opportunite
73.
https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/739342/EPRS_BRI%282023%29739342_EN.pdf
74. https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX :52021PC0206
75. https://crfm.stanford.edu/2023/06/15/eu-ai-act.html
76. https://drive.google.com/file/d/1wrtxfvcD9FwfNfWGDL37Q6Nd8wBKXCkn/view
77. Lawrence Lessig, “Code is law”, Harvard Magazine, janvier 2000. Citation originale : “The code
regulates. It implements values, or not. It enables freedoms, or disables them. It protects privacy, or
promotes monitoring. People choose how the code does these things. People write the code. Thus the choice
is not whether people will decide how cyberspace regulates. People—coder—will. The only choice is
whether we collectively will have a role in their choice—and thus in determining how these values regulate
—or whether collectively we will allow the coders to select our values for us”, source :
https://www.harvardmagazine.com/2000/01/code-is-law-html
78. Citation originale : “Responsible AI requires participation. That is, it requires the commitment of all
stakeholders and the active inclusions of all of society. Which means that everybody should be able to get
proper information about what AI is and what it can mean for them, and also to have access to education
about AI and related technologies.”
79. https://www.bloomberg.com/professional/blog/artificial-intelligence-sea-dudes-problem/
80. https://www.education.gouv.fr/sites/default/files/imported_files/document/depp-2018-EF97-web-
01_1007114.pdf
81. https://moores.samaltman.com/
82. https://www.youtube.com/watch?v=NP8xt8o4_5Q
83. Citation originale : “Machine have calculation, we have understanding. Machines have instructions, we
have purpose. Machines have objectivity, we have passion. We should not worry about what our machines
can do today. Instead, we should worry about what they still cannot do today, because we will need the help
of the new intelligent machines to turn our grandest dreams into reality.”
84. https://www.deepl.com/fr/translator
85. Citation originale : “We can do better than humans or machines alone if we get humans and machines to
work together. Humans can bring their strengths: their creativity, their emotional intelligence, their ethics
and their humanty. And machines can bring their strenghts: their logical precision, their ability to process
mountains of data, their impartiality, their speed and their tirelessness. We need to stop thinking of
machines as competitors but as allies.”
86. https://www.pole-emploi.fr/actualites/le-dossier/les-metiers-de-demain/85-des-emplois-de-2030-
nexistent.html
87.
https://www.mckinsey.com/~/media/mckinsey/industries/public%20and%20social%20sector/our%20insights/skill%20shift%
skill-shift-automation-and-future-of-the-workforce-in-brief-may-2018.pdf
88. https://www.hunimed.eu/news/the-future-of-artificial-intelligence-and-radiology/
89. https://www.lesechos.fr/idees-debats/cercle/opinion-requalification-et-renforcement-des-competences-
la-ou-lia-ne-peut-nous-vaincre-1039576
CONCLUSION
De nombreux sujets ont été traités dans cet ouvrage afin de répondre à
plusieurs objectifs. Tout d’abord l’ambition première était de sensibiliser le
lecteur aux thématiques de l’intelligence artificielle en définissant et en éclairant
les concepts fondamentaux. Qu’est-ce que l’intelligence artificielle ? Comment
la définir ? Quelles en sont les origines et les premières applications ? Il était
nécessaire de se pencher plus particulièrement sur la notion d’algorithme, car
derrière chaque intelligence artificielle, il y a avant tout un ensemble
d’algorithmes. Il nous semblait essentiel de revenir à ces fondamentaux,
notamment dans un contexte médiatique qui peut parfois teinter l’IA de magie et
de fantasmes. N’oublions pas : il s’agit avant tout de statistiques et d’algorithmes
mathématiques !
Ce livre a également été l’opportunité de décrire et d’explorer les différentes
applications de l’IA et de son développement. Nous avons décrit comment des
algorithmes informatiques ont rendu possible l’automatisation d’un nombre
toujours croissant de tâches. Nous avons abordé la notion de « systèmes
experts », qui a vu le jour dans les années 1980, puis nous nous sommes penchés
sur les trois avancées majeures des années 1990 qui ont relancé et dynamisé le
domaine de l’IA, à savoir l’essor du Big Data, l’accroissement de la puissance
de calcul et l’émergence de nouveaux algorithmes et techniques. Grâce à ces
innovations, les développeurs ne se sont plus limités à de l’automatisation basée
sur des règles prédéfinies. Ils ont introduit des technologies de machine learning,
notamment le deep learning, qui permettent plus de flexibilité et d’efficacité.
Nous avons vu que l’objectif avec le machine learning est de concevoir un
algorithme capable d’ajuster les paramètres de son modèle en fonction des
données fournies et des résultats attendus. Nous avons également explicité le
fonctionnement des réseaux de neurones, qui sont des algorithmes avancés
capables de traiter d’immenses quantités de données et d’exécuter des tâches
hautement complexes. Aujourd’hui, la majorité des intelligences artificielles
avancées, qui accomplissent des missions sophistiquées comme le traitement du
langage naturel ou l’analyse d’images, reposent sur ces réseaux de neurones, et
plus particulièrement sur des réseaux de neurones profonds, caractéristiques du
deep learning. Cette rétrospective historique et ces clarifications conceptuelles
nous paraissent incontournables pour saisir le paysage actuel de l’IA et
comprendre les fondations sur lesquelles elle repose aujourd’hui.
Outre l’exploration conceptuelle et historique de l’IA, essentielle pour cerner
précisément le sujet, le principal objectif de ce livre était d’examiner et de
déchiffrer les risques et enjeux éthiques découlant du développement de ces
technologies. Une multitude d’aspects ont été abordés pour vous offrir une
perspective aussi exhaustive que possible.
Nous avons d’abord exploré les préoccupations les plus courantes et évidentes,
généralement celles qui émergent naturellement lorsque l’on évoque les risques
associés à l’IA. Ces appréhensions, souvent influencées par la science-fiction,
englobent des visions d’un monde où les humains seraient remplacés par des
machines. Certains craignent même une éventuelle suprématie des machines, qui
deviendraient extraordinairement intelligentes et dominantes. Nous avons
discuté de concepts comme celui de la « superintelligence », popularisée par
Nick Bostrom, ou encore de la distinction entre les IA « fortes » et « faibles ».
Bien que ces idées restent, à ce jour, principalement théoriques et sans
manifestation concrète, il était important de les aborder. En effet, une grande
partie des discours alarmistes sur l’IA gravite autour de cette vision d’une
intelligence surpassant l’humain, capable potentiellement de le menacer, de le
supplanter ou même de l’éliminer.
Le problème avec ces peurs-là, c’est que bien que la réflexion qu’elles
soulèvent puisse être intéressante et ait le mérite de nous conduire à nous
questionner sur nos usages personnels de l’IA, elles risquent cependant de nous
détourner des véritables enjeux et risques concrets que, en l’occurrence, nous
rencontrons déjà aujourd’hui et qui restent, pour beaucoup, encore largement
méconnus. C’est précisément l’un des objectifs de ce livre : dépasser les
fantasmes et scénarios catastrophes pour plonger au cœur des vrais risques et
enjeux actuels, que l’on peut d’ores et déjà rencontrer de nos jours de façon très
concrète. Ces risques, souvent techniques, sont intrinsèquement liés à la
structure et à la nature même du machine learning. Par exemple on trouve le
problème des biais introduits par ces algorithmes lorsqu’ils s’entraînent sur
d’importantes quantités de données potentiellement biaisées. Les IA risquent
ainsi de reproduire et de perpétuer les inégalités, discriminations et
stigmatisations existant dans notre société, et ce, de manière tout à fait naturelle.
En effet, le principe même du machine learning est précisément de s’appuyer sur
des données passées pour établir des règles permettant de réaliser des prévisions
et de prendre des décisions, ce qui en fait une approche fondamentalement
conservatrice. Si, dans nos données historiques, les femmes occupent peu de
postes à responsabilité, un algorithme de machine learning chargé de
recommander des profils pour un recrutement privilégiera logiquement les
candidatures masculines. Ces problématiques représentent de réels enjeux et
risques pour notre société. Comme le souligne si justement Pedro Domingos :
« Les gens s’inquiètent que les ordinateurs deviennent trop intelligents et
prennent le contrôle du monde, mais le vrai problème, c’est qu’ils sont trop bêtes
et qu’ils ont déjà pris le contrôle du monde1. » Cette situation met en lumière
l’impératif de réévaluer notre dépendance croissante à l’égard de ces algorithmes
et souligne l’urgence de développer une compréhension approfondie de leur
fonctionnement. Il ne s’agit pas seulement d’identifier et de corriger les biais,
mais également de mettre en place des mécanismes robustes de surveillance et
de contrôle pour prévenir les conséquences indésirables de leur déploiement. Il
est essentiel que nous, en tant que société, prenions le temps de réfléchir aux
implications éthiques de l’utilisation de ces technologies et travaillions
activement à la création de solutions qui favorisent la transparence, l’équité et la
responsabilité. Sans une maîtrise adéquate et une compréhension approfondie de
ces outils puissants, nous risquons de laisser des algorithmes imparfaits et
potentiellement biaisés prendre des décisions cruciales qui affectent nos vies,
souvent de manière que nous ne comprenons pas pleinement et ne pouvons pas
prévoir.
En effet, un autre aspect structurel préoccupant de ces IA est que les
algorithmes qui les composent, en particulier ceux de deep learning, sont
tellement complexes avec leurs réseaux de neurones profonds, qu’ils deviennent
de véritables boîtes noires. Ce ne sont pas des modèles explicables, puisqu’ils ne
permettent pas de comprendre les raisons qui conduisent l’algorithme à formuler
une prédiction plutôt qu’une autre. C’est un véritable enjeu. Si nous nous
reposons sur ces technologies pour prendre des décisions importantes ou réaliser
des prévisions, l’incapacité à démêler les processus sous-jacents qui génèrent un
certain résultat, plutôt qu’un autre, peut s’avérer risquée. Cette obscurité dans le
fonctionnement des algorithmes de deep learning peut conduire à des résultats
biaisés ou incorrects, sans que nous puissions facilement identifier et corriger
l’erreur. De plus, cela soulève des questions éthiques et de responsabilité,
notamment dans des domaines sensibles tels que la médecine, la finance ou la
justice, où les décisions prises sur la base de ces algorithmes peuvent avoir des
conséquences graves et durables sur la vie des individus.
Enfin, un autre enjeu structurel de l’IA concerne son empreinte écologique, qui
est loin d’être négligeable. En effet, les algorithmes de deep learning nécessitent
d’énormes quantités de puissance de calcul pour être entraînés et exécutés, ce
qui se traduit par une consommation énergétique colossale. Les data centers qui
hébergent ces algorithmes et leurs données d’entraînement consomment de
l’électricité 24 heures sur 24, contribuant significativement aux émissions de gaz
à effet de serre. Il est donc crucial de prendre en compte cet aspect
environnemental dans le développement et l’utilisation de l’IA, en cherchant des
moyens de minimiser son empreinte écologique tout en continuant à bénéficier
de ses avantages.
D’autres enjeux importants ont également été soulevés tout au long de cet
ouvrage. Notre objectif a été de couvrir un large éventail de thématiques afin de
vous offrir une vision d’ensemble la plus complète possible. Nous avons abordé
la notion d’intelligence artificielle générale, concept bien plus concret et tangible
que celui de la superintelligence. En effet, des entreprises telles que Google,
OpenAI ou Microsoft travaillent activement sur le développement de ce type
d’intelligence artificielle. L’idée est de créer un modèle unique capable de
réaliser une multitude de tâches. Cependant, le développement de telles IA
soulève également toute une série de problèmes, notamment en matière de
protection de la vie privée. Ces modèles très complexes traitent d’énormes
volumes de données, qui sont bien souvent à caractère personnel. Au vu des
quantités de données que nous générons et partageons, souvent sans trop y
réfléchir, la protection de la vie privée des individus représente un véritable défi.
Cette course à l’IA générale pose par ailleurs des questions de rapport de
forces. Les géants de la tech tels que les GAFAM, qui développent ces
algorithmes colossaux, sont des acteurs qui tendent à avoir une force de frappe
importante. Leur hégémonie tend à modifier les équilibres de pouvoir entre ces
géants du secteur privé, les gouvernements et les citoyens. Il convient aussi de
prendre en compte les rapports de forces à l’échelle internationale entre les
différents pays. Certains pays, malgré leurs divergences notables en matière
d’éthique et de protection de la vie privée, n’hésitent pas à se lancer résolument
dans la course au développement de l’intelligence artificielle. Cette dynamique
est préoccupante, car elle peut mener à une situation où des normes laxistes en
matière de droits et de protection des individus deviennent monnaie courante,
sous prétexte de progrès technologique. Les différences d’approches entre les
nations peuvent aboutir à une concurrence déloyale, où les pays adoptant des
régulations plus strictes se retrouvent désavantagés. De plus, cela crée un risque
global de nivellement par le bas des standards éthiques et de protection de la vie
privée, compromettant ainsi la sécurité et les droits des individus à l’échelle
mondiale.
Nous sommes actuellement confrontés à de nombreux risques et enjeux, qui se
manifestent déjà dans notre quotidien, bien avant de considérer des scénarios
excessivement futuristes. Il est capital de prendre conscience de ces défis
majeurs et de ces grandes questions sociétales qui exigent la participation active
de chacun d’entre nous. La compréhension approfondie de ces enjeux et risques
devrait également conduire à l’élaboration de réponses juridiques et à la mise en
place de cadres légaux appropriés, sujets que nous avons également largement
explorés dans cet ouvrage. En vous dotant d’une connaissance générale solide,
en affinant votre compréhension des concepts clés et en cultivant votre capacité
à analyser les implications et à questionner les pratiques actuelles, ce livre vise à
vous fournir les outils nécessaires pour participer de manière éclairée aux
discussions et aux décisions concernant le développement de ces technologies.
Pour finir, je tiens à souligner que, comme nous avons pu le constater tout au
long de ce livre, l’intelligence artificielle n’est ni intrinsèquement bonne, ni
intrinsèquement mauvaise. Il s’agit d’une technologie qui offre un potentiel de
développement considérable. L’IA peut permettre de détecter des cancers de la
peau avec une précision inédite, de rendre possible le développement de
véhicules autonomes qui permettront une plus grande praticité, éviteront les
accidents mortels et mettront fin aux embouteillages. L’IA peut même être
utilisée pour mieux répartir les ressources, économiser de l’eau dans
l’agriculture, et bien plus encore. Elle peut également nous assister dans la
réalisation de prédictions plus précises concernant des problématiques
importantes comme celle du réchauffement climatique, et nous aider à trouver
des solutions pour nous adapter. À l’inverse, l’IA peut également être utilisée à
des fins malveillantes. Nous avons évoqué de nombreux exemples au cours de ce
livre, comme celui des robots tueurs, des deep fakes pouvant être utilisés pour
instrumentaliser les individus, ou encore celui du contrôle et du suivi des
populations permis par la reconnaissance faciale. Comme nous l’avons vu
précédemment avec notre métaphore du marteau, l’IA est un outil qui selon la
manière dont il est utilisé peut être une bonne chose comme une mauvaise chose.
Dans les mains d’un charpentier, le marteau peut être utilisé pour construire des
maisons, ou dans les mains d’un artiste il peut servir à sculpter une magnifique
œuvre d’art. Cependant, dans des mains malveillantes, il peut devenir une arme
redoutable, capable de blesser gravement ou même de tuer une personne d’un
seul coup porté à la tête. De même, l’intelligence artificielle est un outil puissant
dont l’impact dépend de la manière dont il est utilisé.
Pour autant, l’IA, même lorsqu’elle est utilisée avec de bonnes intentions, peut
présenter des risques significatifs si elle n’est pas employée de manière réfléchie.
Il est essentiel de comprendre en profondeur son fonctionnement ainsi que
d’identifier ses éventuels biais et limitations. Imaginons, par exemple, que l’on
souhaite utiliser l’IA pour rendre des décisions en matière de recrutement ou de
justice plus objectives, en éliminant les biais et les émotions humaines. Si
l’intention peut sembler noble au premier abord, il est essentiel de ne pas tomber
dans le piège de croire que la technologie est totalement neutre, fiable et robuste
en toutes circonstances. En effet, les algorithmes d’IA sont conçus par des
humains et surtout entraînés sur des données, qui peuvent être de qualité
variable. Ils peuvent donc reproduire involontairement les mêmes préjugés
présents dans ces données, que ceux qu’ils sont censés éliminer. Sans une
vigilance et une analyse critique, nous risquons de systématiser et de renforcer
ces biais et discriminations au lieu de les éradiquer, entraînant ainsi des
injustices et des inégalités plus importantes. Il est donc impératif d’adopter une
démarche rigoureuse et réfléchie lors de l’utilisation de l’IA. De même, le
développement des IA génératives, telles que ChatGPT, peut donner l’illusion
que les IA sont des sources fiables d’informations, car elles sont entraînées sur
de vastes quantités de données, et que l’on peut donc se reposer entièrement sur
elles pour réfléchir, écrire et penser. Il s’agit là d’une méprise totale. Ces IA ne
comprennent rien ; elles ne possèdent ni connaissances, ni esprit critique, ni la
capacité de se remettre en question ou d’intuition, éléments indispensables à
toute prise de décision éclairée et réflexion approfondie, à l’instar de ce dont les
humains sont capables.
En définitive, l’intelligence artificielle se présente comme une technologie à
double tranchant, ni intrinsèquement bonne, ni foncièrement mauvaise, mais
indéniablement puissante et influente. Son ascension fulgurante dans nos
sociétés contemporaines ouvre des perspectives inédites, mais elle soulève
également des questions de taille quant à son impact sur nos vies et nos
structures sociétales. L’objectif de cet ouvrage était de vous fournir les clés pour
comprendre, questionner et appréhender cette force transformatrice, afin de vous
préparer à naviguer avec discernement dans le paysage complexe de l’IA. À
l’heure où l’intelligence artificielle s’immisce de plus en plus dans nos sociétés,
il est nécessaire de rester vigilant, de questionner, d’analyser et de comprendre.
C’est en adoptant une posture ouverte, consciente, critique et curieuse que nous
pourrons tirer le meilleur parti de l’IA, tout en minimisant ses risques et en
veillant à ce qu’elle serve l’intérêt général et contribue à construire un futur plus
juste et plus équitable. Le chemin à parcourir dans l’univers de l’intelligence
artificielle est semé d’autant de promesses que de défis. Armés de
connaissances, d’esprit critique et de vigilance, nous sommes mieux préparés à
tirer parti des opportunités incroyables qu’elle offre, tout en restant constamment
attentifs à ne pas perdre de vue notre boussole éthique.

1. Citation originale : “People worry that computers will get too smart and take over the world, but the real
problem is that they’re too stupid and they’ve already taken over the world.”
BIBLIOGRAPHIE
Adams, T. (2010, July 11). David Cope: “You pushed the button and out came hundreds and thousands of
sonatas”. The Guardian. https://www.theguardian.com/technology/2010/jul/11/david-cope-computer-
composer
Amsili, S. (2019, 11 février). Intelligence artificielle : les Etats-Unis dévoilent leur plan pour garder leur
avance. Les Echos. https://www.lesechos.fr/tech-medias/hightech/intelligence-artificielle-les-etats-unis-
devoilent-leur-plan-pour-garder-leur-avance-963498
Andrae, A., & Edler, T. (2015). On Global Electricity Usage of Communication Technology: Trends to
2030. Challenges, 6(1), 117-157. https://doi.org/10.3390/challe6010117
Asimov, I. (1942). Cercle vicieux. OPTA.
Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.-F., & Rahwan, I. (2018).
The Moral Machine experiment. Nature, 563(7729), 59-64. https://doi.org/10.1038/s41586-018-0637-6
Bhagat, P. R., Naz, F., & Magda, R. (2022). Artificial intelligence solutions enabling sustainable agriculture:
A bibliometric analysis. PLOS ONE, 17(6), e0268989. https://doi.org/10.1371/journal.pone.0268989
Billier, J.-C. (2014). Introduction à l’éthique. Presses Universitaires de France.
https://doi.org/10.3917/puf.bill.2014.01
Bohineust, A. (2019, 20 novembre). Internet, un ogre énergétique à l’appétit insatiable en électricité. Le
Figaro. https://www.lefigaro.fr/secteur/high-tech/internet-un-ogre-energetique-a-l-appetit-insatiable-en-
electricite-20191120
Bostrom, N. (2017). Superintelligence. Dunod.
Brezina, C. (2006). Al-Khwarizmi: The Inventor of Algebra. Rosen Publishing Group.
Brooker, C. (2011). Black Mirror [Série].
Brown, A. (2020, February 7). Biased Algorithms Learn From Biased Data: 3 Kinds Biases Found In AI
Datasets. Forbes. https://www.forbes.com/sites/cognitiveworld/2020/02/07/biased-algorithms/?
sh=1a98f76176fc
Buchholz, K. (2023). ChatGPT Sprints to One Million Users. Statista.
https://www.statista.com/chart/29174/time-to-one-million-users/
Cameron, J. (1984). The Terminator [Film]. Orion Pictures.
Campbell, W. J. (2001). Yellow Journalism: Puncturing the Myths, Defining the Legacies. Bloomsbury
Academic.
Cardon, D. (2015). À quoi rêvent les algorithmes : Nos vies à l’heure des big data, coll. « La République »,
Seuil.
Carlini, N., Tramer, F., Wallace, E., Jagielski, M., Herbert-Voss, A., Lee, K., Roberts, A., Brown, T., Song,
D., Erlingsson, U., Oprea, A., & Raffel, C. (2021). Extracting Training Data from Large Language
Models. 30th USENIX Security Symposium (USENIX Security 21), 2633-2650.
Chambon, J.-L., & Salziger, G. (2018, 19 septembre). Le Cloud Act, la riposte américaine au RGPD
européen. Les Echos. https://www.lesechos.fr/idees-debats/cercle/le-cloud-act-la-riposte-americaine-au-
rgpd-europeen-139429
Charrel, M., & Fagot, V. (2020, 11 décembre). L’enjeu pour l’Europe, ne pas rater la prochaine révolution
numérique. Le Monde. https://www.lemonde.fr/economie/article/2020/12/11/l-enjeu-pour-l-europe-ne-
pas-rater-la-prochaine-revolution-numerique_6062965_3234.html
Confessore, N. (2018, April 4). Cambridge Analytica and Facebook: the scandal and the fallout so far. The
New York Times. https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-
fallout.html
Copeland, J. (2020). Artificial Intelligence: A Guide for Thinking Humans (Vol. 71). ORDO.
https://doi.org/10.1515/ordo-2021-0028
Criado Perez, C. (2020). Femmes invisibles – Comment le manque de données sur les femmes dessine un
monde fait pour les hommes. First Editions.
Dam, H. K., Tran, T., & Ghose, A. (2018, February 2). Explainable Software Analytics. Proceedings of the
40th International Conference on Software Engineering: New Ideas and Emerging Results.
http://arxiv.org/abs/1802.00603
Damasio, A. (2021). Scarlett et Novak. Rageot.
Damasio, A. R. (2010). L’Erreur de Descartes : La raison des émotions. Odile Jacob.
Dance, G. J. X., LaForgia, M., & Confessore, N. (2018, December 18). As Facebook raised a privacy wall,
it carved an opening for tech giants. New York Times.
https://www.nytimes.com/2018/12/18/technology/facebook-privacy.html
Danziger, S., Levav, J., & Avnaim-Pesso, L. (2011). Extraneous factors in judicial decisions. Proceedings of
the National Academy of Sciences of the United States of America, 108(17), 6889-6892.
https://doi.org/10.1073/pnas.1018033108
Davis, N. (2021, November 9). AI skin cancer diagnoses risk being less accurate for dark skin – study. The
Guardian. https://www.theguardian.com/society/2021/nov/09/ai-skin-cancer-diagnoses-risk-being-less-
accurate-for-dark-skin-study
De Bruyn, A., Viswanathan, V., Beh, Y. S., Brock, J. K. U., & von Wangenheim, F. (2020). Artificial
Intelligence and Marketing: Pitfalls and Opportunities. Journal of Interactive Marketing, 51, 91-105.
https://doi.org/10.1016/j.intmar.2020.04.007
De Ganay, C., & Gillot, D. (2017). Pour une intelligence artificielle maîtrisée, utile et démystifiée. Sénat.
https://www.senat.fr/rap/r16-464-1/r16-464-1.html
De Jesus, C. (2017). AI Lawyer “Ross” Has Been Hired By Its First Official Law Firm. Futurism.
https://futurism.com/artificially-intelligent-lawyer-ross-hired-first-official-law-firm
Dejoux, C. (2020). Ce sera l’IA ou/et moi : Comprendre l’intelligence artificielle pour ne plus en avoir
peur. Vuibert.
Delrue, M. (2017, 12 mai). Entre satire et « attrape-clics », voyage au pays des usines à buzz. Le Monde.
https://www.lemonde.fr/les-decodeurs/article/2017/05/12/entre-satire-et-attrape-clics-voyage-au-pays-
des-usines-a-buzz_5126865_4355770.html
Demichelis, R. (2019, 12 mars). OpenAI : l’association de recherche ouverte d’Elon Musk devient une
entreprise fermée. Les Echos. https://www.lesechos.fr/tech-medias/intelligence-artificielle/openai-
lassociation-de-recherche-ouverte-delon-musk-devient-une-entreprise-fermee-
999865#:~:text=Intelligence%20artificielle-
,OpenAI%20%3A%20l’association%20de%20recherche%20ouverte%20d’Elon%20Musk,annonc%C3%A9%20sa%20tran
Dignum, V. (2019). Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way.
Springer International Publishing. https://doi.org/10.1007/978-3-030-30371-6
Dugain, M., & Labbé, C. (2016). L’Homme nu : La dictature invisible du numérique. Place des éditeurs.
Durkin, J. (2001). History and applications. In C. T. Leondes (Ed.), Expert Systems: The Technology of
Knowledge Management and Decision Making for the 21st Century (1st ed., Vol. 1, pp. 1-22). Academic
Press.
Epstein, R., & Robertson, R. E. (2015). The search engine manipulation effect (SEME) and its possible
impact on the outcomes of elections. Proceedings of the National Academy of Sciences.
https://doi.org/10.1073/pnas.1419828112
Floridi, L. (2020). AI and Its New Winter : from Myths to Realities. Philosophy and Technology, 33(1), 1-3.
https://doi.org/10.1007/s13347-020-00396-6
Foot, P. (1967). The Problem of Abortion and the Doctrine of the Double Effect. Oxford Review, 5, 5-15.
Fouquet, C. (2018, 21 janvier). Test de compréhension : l’intelligence artificielle fait mieux que l’humain.
Les Echos. https://www.lesechos.fr/2018/01/test-de-comprehension-lintelligence-artificielle-fait-mieux-
que-lhumain-982376
Frey, C. B., & Osborne, M. A. (2013). The future of employment: How susceptible are jobs to
computerisation? Technological Forcasting and Social Change, 254-280.
Gardner, H. (2000). Intelligence Reframed: Multiple Intelligences for the 21st Century. Basic Books.
Gaudiaut, T. (2021). Le Big Bang du Big Data. Statista.
Gibbs, S. (2014, October 27). Elon Musk: artificial intelligence is our biggest existential threat. The
Guardian. https://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-
biggest-existential-threat
Gibbs, S. (2015, July 8). Women less likely to be shown ads for high-paid jobs on Google, study shows. The
Guardian. https://www.theguardian.com/technology/2015/jul/08/women-less-likely-ads-high-paid-jobs-
google-study
Growiec, J. (2022). Mechanization, Automation and the Labor Market. In J. Growiec (Ed.), Accelerating
Economic Growth (pp. 63-76). Springer.
Hao, K. (2020, December 4). We read the paper that forced Timnit Gebru out of Google. Here’s what it
says. MIT Technology Review. https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-
research-paper-forced-out-timnit-gebru/
Harwell, D. (2022, September 2). He used AI to win a fine-arts competition. Was it cheating? The
Washington Post. https://www.washingtonpost.com/technology/2022/09/02/midjourney-artificial-
intelligence-state-fair-colorado/
Haski, P. (2017, 17 septembre). Intelligence artificielle : qui sera maître du monde ? L’Obs.
https://www.nouvelobs.com/chroniques/20170914.OBS4682/intelligence-artificielle-qui-sera-maitre-du-
monde.html
Heaven, W. D. (2020, July 20). OpenAI’s new language generator GPT-3 is shockingly good—and
completely mindless. MIT Technology Review.
https://www.technologyreview.com/2020/07/20/1005454/openai-machine-learning-language-generator-
gpt-3-nlp/
Heikkilä, M. (2022, May 23). The hype around DeepMind’s new AI model misses what’s actually cool
about it. MIT Technology Review. https://www.technologyreview.com/2022/05/23/1052627/deepmind-
gato-ai-model-hype/
Heimbach, I., Kostyra, D. S., & Hinz, O. (2015). Marketing Automation. Business and Information Systems
Engineering, 57(2), 129-133. https://doi.org/10.1007/s12599-015-0370-8
Herbert, G. (2023, 14 juin). Pourquoi les nouvelles voitures sont-elles conçues et testées uniquement pour
les corps masculins ? Euronews. https://fr.euronews.com/next/2023/06/14/pourquoi-les-nouvelles-
voitures-sont-elles-concues-et-testees-uniquement-pour-les-corps-ma
Hern, A. (2016, September 28). “Partnership on AI” formed by Google, Facebook, Amazon, IBM and
Microsoft. The Guardian. https://www.theguardian.com/technology/2016/sep/28/google-facebook-
amazon-ibm-microsoft-partnership-on-ai-tech-firms
Hutchins, J. (1997). From first conception to first demonstration: the nascent years of machine translation,
1947–1954. A chronology. Machine Translation, 12, 195-252.
Ismail, W., Niknejad, N., Bahari, M., Hendradi, R., Zaizi, N. J. M., & Zulkifli, M. Z. (2021). Water
treatment and artificial intelligence techniques: a systematic literature review research. Environmental
Science and Pollution Research, 30(28), 71794-71812. https://doi.org/10.1007/s11356-021-16471-0
Javadi, A. H., Emo, B., Howard, L. R., Zisch, F. E., Yu, Y., Knight, R., Pinelo Silva, J., & Spiers, H. J.
(2017). Hippocampal and prefrontal processing of network topology to simulate the future. Nature
Communications, 8. https://doi.org/10.1038/ncomms14652
Jensen, P. (2018). Pourquoi la société ne se laisse pas mettre en équations, coll. « Science ouverte », Seuil.
Julia, L. (2019). L’intelligence artificielle n’existe pas. First.
Kaviani, F., Robards, B., Young, K. L., & Koppel, S. (2020). Nomophobia: Is the fear of being without a
smartphone associated with problematic use? International Journal of Environmental Research and
Public Health, 17(17), 1-19. https://doi.org/10.3390/ijerph17176024
Khurana, D., Koli, A., Khatter, K., & Singh, S. (2023). Natural language processing: state of the art, current
trends and challenges. Multimedia Tools and Applications, 82(3), 3713-3744.
https://doi.org/10.1007/s11042-022-13428-4
Kœnig, G. (2019). La fin de l’individu. Éditions de l’Observatoire.
Kohlberg, L. (1958). The development of modes of moral thinking and choice in the years 10 to 16. The
University of Chicago.
Kokolakis, S. (2017). Privacy attitudes and privacy behaviour: A review of current research on the privacy
paradox phenomenon. Computers & Security, 64, 122-134. https://doi.org/10.1016/j.cose.2015.07.002
Kubrick, S. (1968). 2001, l’Odyssée de l’espace [Film]. Metro-Goldwyn-Mayer.
Kumaraguru, P., & Cranor, L. (2005). Privacy Indexes: A Survey of Westin’s Studies. Carnegie Mellon
University.
Le, H., Vial, L, Frej, J., Segonne, V., Coavoux, M., Lecouteux, B., Allauzen, A., Crabbé, B., Besacier, L., &
Schwab, D. (2020). FlauBERT: Unsupervised Language Model Pre-training for French. Proceedings of
The 12th Language Resources and Evaluation Conference, 2479-2490.
https://github.com/piegu/language-models
LeCun, Y. (2019). Quand la machine apprend : La révolution des neurones artificiels et de l’apprentissage
profond. Odile Jacob.
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
https://doi.org/10.1038/nature14539
Leloup, D., & Piquard, A. (2021, 9 janvier). Vif débat après la fermeture du compte Twitter personnel de
Donald Trump. Le Monde. https://www.lemonde.fr/pixels/article/2021/01/09/vif-debat-apres-la-
fermeture-du-compte-twitter-personnel-de-donald-trump_6065739_4408996.html
Lesnes, C. (2019, May 15). San Francisco interdit la reconnaissance faciale. Le Monde.
https://www.lemonde.fr/economie/article/2019/05/15/san-francisco-interdit-la-reconnaissance-
faciale_5462287_3234.html
Lighthill, J. (1973). Artificial Intelligence: A General Survey. Artificial Intelligence: A Paper Symposium.
Ligonnière, R. (1987). Préhistoire et histoire des ordinateurs : Des origines du calcul aux premiers
calculateurs électroniques. Robert Laffont.
Liu, Y., Kohlberger, T., Norouzi, M., Dahl, G. E., Smith, J. L., Mohtashamian, A., Olson, N., Peng, L. H.,
Hipp, J. D., & Stumpe, M. C. (2019). Artificial intelligence–based breast cancer nodal metastasis
detection insights into the black box for pathologists. Archives of Pathology and Laboratory Medicine,
143(7), 859-868. https://doi.org/10.5858/arpa.2018-0147-OA
Loebner, H. (2007). How to Hold a Turing Test Contest. In R. Epstein, G. Roberts, G. Beber (Eds.), Parsing
the Turing Test (pp. 173-179). Springer.
Logothetis, P. (2017, November 4). Cracking the vault : Artificial intelligence judging comes to gymnastics.
The Guardian. https://www.theguardian.com/sport/blog/2017/nov/04/ai-judges-gymnastics-
olympics#:~:text=The%20International%20Gymnastics%20Federation%20(FIG,3D%20sensory%20system%2C%20says%
Loye, D. (2018, August 29). Intelligence artificielle : mais où sont les femmes ? Les Echos.
https://www.lesechos.fr/tech-medias/intelligence-artificielle/intelligence-artificielle-mais-ou-sont-les-
femmes-137531
Luckerson, V. (2014, December 2). 5 Very Smart People Who Think Artificial Intelligence Could Bring the
Apocalypse. Time. https://time.com/3614349/artificial-intelligence-singularity-stephen-hawking-elon-
musk/
Manyika, J., Lund, S., Chui, M., Bughin, J., Woetzel, J., Batra, P., Ko, R., & Sanghvi, S. (2017). Jobs lost,
jobs gained: What the future ofwork will mean for jobs, skills, and wages. McKinsey.
https://www.mckinsey.com
Marin, J. (2013, 22 novembre). La vie privée ? “Peut-être une anomalie”, selon un responsable de Google.
Le Monde. https://www.lemonde.fr/pixels/article/2013/11/22/la-vie-privee-peut-etre-une-anomalie-selon-
un-responsable-de-google_6002947_4408996.html
Martin, L., Muller, B., Ortiz Suárez, P. J., Dupont, Y., Romary, L., Villemonte De La Clergerie, É., Seddah,
D., & Sagot, B. (2020). CamemBERT: a Tasty French Language Model. Proceedings of the 58th Annual
Meeting of the Association for Computational Linguistics, 7203-7219. https://universaldependencies.org
McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (2006). A proposal for the Dartmouth
summer research project on Artificial Intelligence, August 31, 1955, AI Magazine, 27, 12-14.
Meneceur, Y. (2020). L’intelligence artificielle en procès – Plaidoyer pour une réglementation
internationale et européenne. Éditions Bruylant.
Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient Estimation of Word Representations in
Vector Space. Proceedings of the International Conference on Learning Representations.
Mitchell, T. M. (1997). Machine Learning. McGraw-Hill.
Newborn, M. (2012). Kasparov versus Deep Blue: Computer Chess Comes of Age. Springer Science &
Business Media.
Nikolić, G. S., Dimitrijević, B. R., Nikolić, T. R., & Stojcev, M. K. (2022). A Survey of Three Types of
Processing Units: CPU, GPU and TPU. 57th International Scientific Conference on Information,
Communication and Energy Systems and Technologies (ICEST), 1-6.
https://doi.org/10.1109/ICEST55168.2022.9828625
Noah Harari, Y. (2017). Homo Deus : Une brève histoire de l’avenir. Albin Michel.
Parlement européen (2021). Intelligence artificielle : définition et utilisation.
https://www.europarl.europa.eu/news/fr/headlines/society/20200827STO85804/intelligence-artificielle-
definition-et-
utilisation#:~:text=L’IA%20d%C3%A9signe%20la%20possibilit%C3%A9,la%20planification%20et%20la%20cr%C3%A
Paul, K. (2023, February 28). Elon Musk overstated Tesla’s autopilot and self-driving tech, new lawsuit
says. The Guardian. https://www.theguardian.com/technology/2023/feb/27/elon-musk-tesla-lawsuit-
autopilot
Pedroletti, B. (2020, 16 janvier). En Chine, le « crédit social » des citoyens fait passer les devoirs avant les
droits. Le Monde. https://www.lemonde.fr/idees/article/2020/01/16/le-credit-social-les-devoirs-avant-les-
droits_6026047_3232.html
Pomerleau, D. (1989). ALVINN: An Autonomous Land Vehicle In a Neural Network. In D. S. Touretzky
(Ed.), Neural Information Processing Systems (pp. 305-313). Kaufmann.
Porter, M. (1991). America’s Green Strategy. Scientific American, 264(168).
Proyas, A. (2004). I, Robot [Film]. 20th Century Fox.
Rauline, N. (2018, April 5). Le mystérieux projet Maven divise Google. Les Echos.
https://www.lesechos.fr/2018/04/le-mysterieux-projet-maven-divise-google-988207
Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why Should I Trust You?” Explaining the Predictions of
Any Classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge
Discovery and Data Mining, 97-101. https://github.com
Rosenblatt, F. (1957). The Perceptron: a perceiving and recognizing automation. Cornell Aeronautical
Laboratory.
Roy, J. (1999). Polis and Oikos in Classical Athens. Greece and Rome, 46(1), 1-18.
https://doi.org/10.1017/S0017383500026036
Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S., Huang, Z., Karpathy, A., Khosla, A.,
Bernstein, M., Berg, A. C., & Fei-Fei, L. (2015). ImageNet Large Scale Visual Recognition Challenge.
International Journal of Computer Vision, 115(3), 211-252. http://arxiv.org/abs/1409.0575
SAE International (2018). Taxonomy and Definitions for Terms Related to Driving Automation Systems for
On-Road Motor Vehicles. SAE Mobilus. https://doi.org/10.4271/J3016_201806
Samama, P. (2018, 20 juin). Microsoft : les salariés choqués par un contrat signé avec les services
américains de l’immigration. BFM Business.
https://www.bfmtv.com/economie/entreprises/services/microsoft-les-salaries-choques-par-un-contrat-
signe-avec-les-services-americains-de-l-immigration_AN-201806200192.html
Samoili, S., López Cobo, M., Gómez, E., De Prato, G., Martínez-Plumed, F., & Delipetrev, B. (2020). AI
Watch. Defining Artificial Intelligence. Towards an operational definition and taxonomy of artificial
intelligence. European Union. https://doi.org/10.2760/382730
Saygin, A. P., Cicekli, I., & Akman, V. (2001). Turing Test: 50 Years Later. Minds and Machines, 10, 463-
518.
Schou Andreassen, C., Torsheim, T., Scott Brunborg, G., & Pallesen, S. (2012). Development of a
Facebook Addiction Scale. Psychological Reports, 110, 501-517.
https://doi.org/10.2466/02.09.18.PR0.110.2.501-517
Schumpeter, J. (1942). Capitalism, Socialism and Democracy. Harper & Brothers.
Scott, R. (1982). Blade Runner [Film]. Warner Bros.
Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417-424.
https://doi.org/10.1017/S0140525X00005756
Shelley, M. (1818). Frankenstein. Harding.
Shi, X., Chen, Z., Wang, H., Yeung, D.-Y., Wong, W.-K., Woo, W.-C., & Kong Observatory, H. (2015).
Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting. Advances
in Neural Information Processing Systems, 28.
Singh, S. (2015). Critical reasons for crashes investigated in the National Motor Vehicle Crash Causation
Survey. https://crashstats.nhtsa.dot.gov/Api/Public/Publication/812506
Six, N. (2018, 26 octobre). Un tableau conçu par un programme d’intelligence artificielle adjugé 432 500
dollars. Le Monde. https://www.lemonde.fr/pixels/article/2018/10/26/un-tableau-concu-par-un-
programme-d-intelligence-artificielle-adjuge-432-500-dollars_5374997_4408996.html
Son, H. (2017, February). JPMorgan software does in seconds what took lawyers 360,000 hours.
Independent. https://www.independent.co.uk/news/business/news/jp-morgan-software-lawyers-coin-
contract-intelligence-parsing-financial-deals-seconds-legal-working-hours-360000-a7603256.html
Soula, C. (2017, April). Transport urbain : la navette autonome, une petite révolution made in France.
L’Obs. https://www.nouvelobs.com/economie/20170406.OBS7686/transport-urbain-la-navette-autonome-
une-petite-revolution-made-in-france.html
Stock, S., Babazadeh, D., & Becker, C. (2021). Applications of Artificial Intelligence in Distribution Power
System Operation. IEEE Access, 9, 150098-150119. https://doi.org/10.1109/ACCESS.2021.3125102
Stroobants, J.-P. (2014, March 12). La banque ING prête à tout dévoiler de ses clients. Le Monde.
https://www.lemonde.fr/economie/article/2014/03/11/la-banque-ing-prete-a-tout-devoiler-de-ses-
clients_4381105_3234.html
Stroobants, J.-P. (2021, August 31). Les Gafam, rois du lobbying à Bruxelles. Le Monde.
https://www.lemonde.fr/economie/article/2021/08/31/les-gafam-rois-du-lobbying-a-
bruxelles_6092811_3234.html
Sullivan, M. (2021, October 5). Facebook is harming our society. Here’s a radical solution for reining it in.
The Washington Post. https://www.washingtonpost.com/lifestyle/media/media-sullivan-facebook-
whistleblower-haugen/2021/10/04/3461c62e-2535-11ec-8831-a31e7b3de188_story.html
Surowiecki, J. (2004). The wisdom of crowds. Anchor.
Syed, R., Suriadi, S., Adams, M., Bandara, W., Leemans, S. J. J., Ouyang, C., ter Hofstede, A. H. M., van
de Weerd, I., Wynn, M. T., & Reijers, H. A. (2020). Robotic Process Automation: Contemporary themes
and challenges. Computers in Industry, 115. https://doi.org/10.1016/j.compind.2019.103162
Teich, D. A. (2018, January 24). Management AI: Bias, Criminal Recidivism, And The Promise Of
Machine Learning. Forbes. https://www.forbes.com/sites/tiriasresearch/2018/01/24/management-ai-bias-
criminal-recidivism-and-the-promise-of-machine-learning/
The Wachowskis (1999). Matrix [Film]. Warner Bros.
Thelisson, E. (2019). La portée du caractère extraterritorial du Règlement général sur la protection des
données. Revue Internationale de Droit Économique, t.XXXIII(4), 501-533.
https://doi.org/10.3917/ride.334.0501
Thomson, J. J. (1976). Killing, Letting Die, and the Trolley Problem. Monist, 59(2), 204-217.
https://doi.org/10.5840/monist197659224
Thomson, J. J. (1985). The Trolley Problem. The Yale Law Journal, 94(6), 1395-1415.
https://doi.org/10.2307/796133
Tison, E. (2018). L’impact de la révolution digitale sur l’emploi. Institut Sapiens.
Tual, M. (2017, 12 septembre). Polémique sur une étude affirmant qu’un programme peut repérer
l’homosexualité sur le visage. Le Monde. https://www.lemonde.fr/pixels/article/2017/09/12/polemique-
apres-une-etude-affirmant-qu-un-programme-peut-reperer-l-homosexualite-sur-le-
visage_5184516_4408996.html
Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433-460.
Tyldum, M. (2014, November). The Imitation Game [Film]. The Weinstein Company.
Vaswani, A., Brain, G., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., &
Polosukhin, I. (2023). Attention Is All You Need. 31st Conference on Neural Information Processing
Systems.
Wagner, M. (2004). The Porter Hypothesis Revisited: A Literature Review of Theoretical Models and
Empirical Tests. Public Economics, University Library of Munich, Germany.
Walsh, T. (2018). Machines That Think: The Future of Artificial Intelligence. Prometheus Books.
Weizenbaum, J. (1966). ELIZA – A computer program for the study of natural language communication
between man and machine. Communications of the ACM, 9.
Wen, D., Khan, S. M., Ji Xu, A., Ibrahim, H., Smith, L., Caballero, J., Zepeda, L., de Blas Perez, C.,
Denniston, A. K., Liu, X., & Matin, R. N. (2022). Characteristics of publicly available skin cancer image
datasets: a systematic review. The Lancet Digital Health, 4(1), e64–e74. https://doi.org/10.1016/S2589-
7500(21)00252-1
Westin, A. (2003). Westin A and the Staff of the Centre for Social & Legal Research. Bibliography of
Surveys of the U.S. Public 1970-2003.
Wiederhold, G., & McCarthy, J. (1992). Arthur Samuel: Pioneer in Machine Learning. IBM Journal of
Research and Development, 36(3), 329-331.
Wiener, N. (1960). Some Moral and Technical Consequences of Automation. Science, 131(3410), 1355-
1358. https://doi.org/10.1126/science.131.3410.1355
World Economic Forum (2018). The Future of Jobs Report 2018 Insight Report Centre for the New
Economy and Society.
Youyou, W., Kosinski, M., & Stillwell, D. (2015). Computer-based personality judgments are more accurate
than those made by humans. Proceedings of the National Academy of Sciences of the United States of
America, 112(4), 1036-1040. https://doi.org/10.1073/pnas.1418680112
Zaraté, P. (2021). L’intelligence artificielle d’hier à aujourd’hui. Droit Social, 2, 106-109.
Zaugg, J. (2019, March 7). En Chine, la vie sous l’œil inquisiteur des caméras. Les Echos.
https://www.lesechos.fr/tech-medias/hightech/en-chine-la-vie-sous-loeil-des-cameras-997774

Vous aimerez peut-être aussi