Menu Close
Circuit électronique ayant plus ou moins la forme d'un cerveau.
Peut-on mettre au point des intelligences artificielles éthiques ? Mike MacKenzie/Flickr, CC BY

Deepfake, racisme, armes autonomes : comment donner une éthique à l’IA

Le 24 novembre dernier, l’Unesco a adopté un projet de recommandation sur l’éthique de l’intelligence artificielle (IA) dans le but de donner des fondements éthiques à vocation universelle à ses états membres. Cette annonce, importante comme nous le verrons, peut de prime abord interroger. En effet, en quoi l’éthique peut-elle concerner l’IA ? Ce concept n’est-il pas réservé aux individus ? Pour répondre à cette interrogation, commençons tout d’abord par revenir aux fondements de ce qu’est l’éthique, ainsi qu’à la compréhension de ce qu’est l’IA.

L’éthique, prescripteur des valeurs et des lois

Rappelons que l’éthique est synonyme de morale, en plus actuel, les deux signifiant « les mœurs ». On compte principalement trois doctrines philosophiques permettant de définir et penser l’éthique. Résumées de manière lapidaire, on peut dire que l’éthique du philosophe de la Grèce antique Aristote consiste en un perfectionnement des vertus, conjugué à une manière d’être prudente, ayant le souci du respect des mœurs de la cité. Pour le philosophe prussien Emmanuel Kant, en revanche, l’éthique est un devoir, celui de l’impératif catégorique, qui consiste à n’agir que si l’action en jeu est universalisable, c’est-à-dire pourrait servir de modèle pour les autres hommes. Enfin, dans la pensée utilitariste, dont les précurseurs sont les penseurs britanniques Jeremy Bentham et John Stuart Mill, l’éthique consiste à choisir les actions en fonction de leurs conséquences, bonnes ou mauvaises, en visant le bonheur du plus grand nombre.

Ces trois doctrines historiques, étoffées par nombre de philosophes plus actuels (J. Habermas, H. Jonas, J. Derrida, P. Ricœur, etc.) ont façonné l’acception contemporaine du concept d’éthique tel qu’il est usité dans le débat public. Aujourd’hui, le concept éthique est généralement associé aux avis rendus par des comités consultatifs d’éthique à propos de dilemmes moraux, à l’issue de processus délibératifs, plus ou moins inclusifs et démocratiques.

Ces avis peuvent définir des valeurs, des principes voire des normes de comportements, évitant de nuire à autrui et visant le bonheur des hommes dans une société juste. Les normes, en particulier, ont une vocation pratique par leur transposition naturelle dans la loi, la réglementation ou encore les codes de déontologie, en définissant les droits et devoirs des citoyens, c’est-à-dire en fixant des limites à leurs comportements.

L’IA, science sans conscience d’elle-même

L’intelligence artificielle, quant à elle, est une technologie protéiforme visant à reproduire ou simuler l’intelligence humaine. À la croisée entre mathématiques et informatique, cette discipline connaît aujourd’hui un essor phénoménal permis par l’avènement du big data et les capacités de calculs vertigineux des microprocesseurs. L’IA permet notamment de faire des regroupements homogènes d’ensembles d’objets abstraits sur la base de données d’apprentissage. Cette fonctionnalité, a priori simple, trouve paradoxalement des applications surprenantes pour lesquelles on imaginerait des mécanismes plus complexes.

Ainsi, regrouper des images homogènes, par exemple des photos de chats, permet la reconnaissance d’image. De la même façon, regrouper les sons (phonèmes) composant des mots permet la reconnaissance vocale. Enfin, associer des objets sur la base d’un critère donné permet aux machines de raisonner et prendre des décisions, par exemple en regroupant les candidats admissibles à une embauche, c’est-à-dire en les distinguant de ceux dont la candidature est rejetée.

Cependant, quelle que soit la sophistication de l’IA et le caractère impressionnant de ses performances, l’IA actuelle est dite « faible », car elle ne permet « que » l’exécution d’une unique tâche spécifique : jouer au jeu de Go, identifier une tumeur sur une radio, détecter des transactions bancaires frauduleuses, noter le risque de défaut des emprunteurs, etc. Une intelligence artificielle générale, capable d’effectuer toutes les tâches cognitives propres aux humains, même limitées aux capacités d’un enfant de deux ans, n’est pas à l’ordre du jour, tandis que la création d’une IA dotée d’une forme de conscience de soi et de pensée reste encore un doux rêve au regard des connaissances actuelles en neurosciences.

Une IA n’est finalement rien d’autre qu’un programme informatique adaptatif (qui s’adapte à ses données d’entraînement en Machine Learning ou à son contexte en apprentissage par renforcement), sans conscience, sans valeurs, sans pensées, sans libre arbitre, incapable de discerner le bien du mal et donc d’agir volontairement et consciemment de manière conforme à la morale ou à la loi. Aussi, si une IA peut mécaniquement produire des résultats légaux, c’est-à-dire conformes à la loi, parler de comportement éthique pour une IA relève d’un non-sens, puisqu’agir de façon éthique nécessite la possibilité d’un choix en conscience, rendu possible par le libre arbitre.

L’IA est donc amorale, au même titre que toutes les technologies. Mais de la même manière que la maîtrise de l’électricité a débouché sur des applications devenues indispensables à l’humanité (se chauffer, s’éclairer…) comme néfastes (la gégène a aussi été utilisée à des fins de torture), l’IA offre des usages bénéfiques mais aussi potentiellement nuisibles pour l’humanité.

Partie de Go entre AlphaGo et le joueur Lee Sedol ; un cadre de l’image montre le plateau de go vu de dessus, un autre cadre filme le joueur Lee Sedol
AlphaGO est une IA faible : elle sait jouer au Go… mais est incapable de reconnaître une image de chat. Prachatai/Flickr, CC BY-NC-ND

De fait, si les applications bénéfiques de l’IA sont indiscutables (amélioration des diagnostics médicaux, freinage automatique d’urgence des véhicules, maintenance prédictive, traduction automatique…), les risques qui lui sont associés existent bel et bien. On songe d’abord au risque démocratique, avec les bulles informationnelles des réseaux sociaux qui polarisent le débat, ou avec les deepfakes, ces vidéos contrefaites permettant de faire dire n’importe quoi à n’importe qui de façon très réaliste. Ensuite, l’IA permet l’émergence d’une surveillance généralisée, avec la reconnaissance faciale, voire l’analyse de nos discussions privées. On peut penser également à toutes les décisions prises automatiquement par des IA sans qu’il soit possible d’en expliquer les raisons. Ces dernières peuvent aussi être biaisées avec, en particulier, un risque de discrimination avéré. Des travaux menés aux États-Unis illustrent ce dernier point, et montrent que les populations afro-américaines de l’étude étaient davantage pénalisées par des juridictions recourant à des IA de justice prédictive. On peut y ajouter la question des armes létales autonomes, celle des externalités de l’IA en matière d’empreinte carbone ou encore de son impact sur l’emploi et les inégalités…

Encadrer l’usage de l’IA

On le voit, les risques liés aux applications de l’IA sont nombreux, manifestes et sérieux. Mais si l’on y réfléchit, ce n’est pas tant l’IA, en tant que technologie, qui est ou n’est pas éthique, mais bien davantage ses usages, imaginés et développés par des humains, car seuls ces derniers disposent d’une liberté de choix en conscience.

Alertés sur ces problèmes, les industriels et la communauté scientifique se sont lancés, assez récemment, dans des projets de recherche en IA Éthique (Fair Machine Learning), visant notamment à corriger les biais de discrimination des modèles mais aussi à rendre explicables les résultats des algorithmes. L’explicabilité a pour objet de rendre les résultats des modèles intelligibles pour les utilisateurs. Or, bien que tout algorithme soit compris par son développeur, les résultats de certaines IA ne peuvent être expliqués et justifiés de façon argumentée au regard de la complexité du modèle entraîné. On peut alors parler de boîte noire, inacceptable pour les décisions impactant la vie des individus (recrutement, crédit…). Cette question concerne tout particulièrement les réseaux de neurones, modèles inspirés des neurones biologiques, et de ses avatars les plus populaires et performants, l’apprentissage profond (ou Deep Learning) et les réseaux convolutifs pour lesquels le nombre de paramètres peut se compter en milliards. L’explicabilité est donc une condition nécessaire à l’acceptation sociale des décisions basées sur les modèles d’IA. En outre, son avènement renforcerait la confiance du citoyen dans cette technologie.

Mais si ces projets vont dans le sens d’une justice et d’une confiance accrues, cela ne suffit pas à couvrir l’étendue des risques liés à l’IA mais uniquement de ceux relevant de la légalité des modèles. Ainsi, les questions, déjà mentionnées, liées au risque démocratique, à la surveillance généralisée ou encore aux armes létales autonomes échappent à ces solutions techniques car elles sont d’une autre nature, éthique (est-il moral d’autoriser l’application concernée ?), juridique (quels sont les droits et les devoirs associés à l’application, une fois celle-ci autorisée), ou encore politique (comment gérer les conséquences économiques, sociétales et environnementales des applications concernées ?).

Précisément, le projet de recommandation pour une éthique de l’IA, adopté par les 193 membres de l’Unesco le 24 novembre dernier, pose un cadre normatif de valeurs et de principes qui constitue un socle commun, préalable à la formulation de lois et règlements par les états membres. Par exemple, une recommandation précise concerne la question de la discrimination :

« Les états membres doivent veiller à ce que les stéréotypes fondés sur le genre et les préjugés discriminatoires ne soient pas transposés dans les systèmes d’IA, mais plutôt repérés et corrigés de manière proactive. »

En outre, ce texte prône des garde-fous à toutes les étapes du cycle de vie des IA, responsabilisant les parties prenantes, les individus comme les organisations (et non pas les IA comme nous l’avons vu), concernées par la légalité, la conception, le développement et l’exploitation des applications adossées à cette technologie.

Cet évènement représente donc une avancée utile et importante mais il faut toutefois mentionner deux bémols :

  • Tout d’abord, ces recommandations sont juridiquement peu contraignantes dans la mesure où les états membres ne s’engagent, au titre de la constitution de l’Unesco (art. IV, B, §4 et §6), qu’à soumettre les recommandations aux autorités nationales compétentes puis à rendre compte des suites qui leur sont données par la remise d’un rapport ultérieur.

  • Ensuite, l’IA est considérée comme l’instrument de la prochaine révolution économique, c’est donc un enjeu géostratégique majeur, sur le plan économique mais aussi militaire.

Or, dans un contexte international de compétition économique exacerbée et de tensions entre grandes puissances (on pense d’abord aux relations Sino-Américaines), on peut s’interroger sur le poids de ces recommandations…

Want to write?

Write an article and join a growing community of more than 182,400 academics and researchers from 4,942 institutions.

Register now