Menu Close
robot et miroirs
Se concentrer sur les risques que pose l'IA pour la survie de l'humanité… un miroir aux alouettes? gopixa, Shutterstock

Intelligence artificielle : prendre en compte ses risques concrets, plutôt que de potentielles menaces existentielles

Ces derniers mois, l’intelligence artificielle (IA) a fait l’objet d’un débat mondial en raison de l’adoption généralisée d’outils basés sur l’IA générative, tels que les chatbots et les programmes de génération automatique d’images. D’éminents scientifiques et technologues de l’IA pointent les potentiels risques existentiels posés par ces développements – c’est-à-dire les risques qui menacent la survie de l’humanité.

Nous travaillons dans le domaine de l’IA depuis des décennies et avons été surpris par cette popularité subite et ce sensationnalisme. L’objectif de cet article n’est pas d’antagoniser, mais plutôt d’équilibrer une perception publique qui nous semble dominée par des craintes spéculatives de menaces existentielles liées au développement de systèmes d’IA.

Il ne nous appartient pas de dire que l’on n’a pas le droit, on ne devrait pas s’inquiéter de ces risques existentiels. Mais, en tant que membres du Laboratoire européen pour l’apprentissage et les systèmes intelligents (ELLIS), un organisme de recherche qui se concentre sur l’apprentissage automatique, nous pensons qu’il nous appartient de mettre ces risques en perspective, en particulier parce que des organisations gouvernementales envisagent de réguler l’IA en prenant en compte les apports des entreprises de la tech.

Qu’est-ce que l’IA ?

L’IA est une discipline de l’informatique ou de l’ingénierie informatique qui a pris forme dans les années 1950. Elle vise à construire des systèmes informatiques intelligents, en prenant pour référence l’intelligence humaine. Tout comme l’intelligence humaine est complexe et diversifiée, l’intelligence artificielle comporte de nombreux domaines qui visent à imiter certains aspects de l’intelligence humaine, de la perception au raisonnement, en passant par la planification et la prise de décision.

En fonction du niveau de compétence, les systèmes d’IA peuvent être divisés en trois niveaux :

1.L’IA faible (narrow AI ou weak AI en anglais), qui désigne les systèmes d’IA capables d’effectuer des tâches spécifiques ou de résoudre des problèmes particuliers – souvent avec un niveau de performance supérieur à celui des humains dorénavant. Tous les systèmes d’IA actuels sont des systèmes d’IA faible, y compris les chatbots comme ChatGPT, les assistants vocaux comme Siri et Alexa, les systèmes de reconnaissance d’images et les algorithmes de recommandation.

2.L’IA forte, ou IA générale, qui fait référence aux systèmes d’IA qui présentent un niveau d’intelligence similaire à celui des humains, y compris la capacité de comprendre, d’apprendre et d’appliquer des connaissances à un large éventail de tâches et d’incorporer des concepts tels que la conscience. L’IA générale est largement hypothétique et n’a pas été réalisée à ce jour.


Read more: Google a-t-il développé une IA consciente ?


3.Les superintelligences désignent les systèmes d’IA dotés d’une intelligence supérieure à l’intelligence humaine pour toutes les tâches. Par définition, nous sommes incapables de comprendre ce type d’intelligence, de la même manière qu’une fourmi n’est pas en mesure de comprendre notre intelligence. La super IA est un concept encore plus spéculatif que l’IA générale.

L’IA peut être appliquée à tous les domaines, de l’éducation aux transports, en passant par les soins de santé, le droit ou la fabrication. Elle modifie donc profondément tous les aspects de la société. Même sous sa forme « faible », l’IA a un potentiel important pour générer une croissance économique durable et nous aider à relever les défis les plus urgents du XXIe siècle, tels que le changement climatique, les pandémies et les inégalités.

Les défis posés par les systèmes d’IA actuels

L’adoption, au cours de la dernière décennie, de systèmes décisionnels basés sur l’IA dans un large éventail de domaines, des réseaux sociaux au marché du travail, pose également des risques et des défis sociétaux importants qu’il convient de comprendre et de relever.

L’émergence récente de grands modèles de « transformateurs génératifs pré-entraînés », plus connus sous leur acronyme anglais GPT, très performants, exacerbe bon nombre des défis existants tout en en créant de nouveaux qui méritent une attention particulière.

De plus, l’ampleur et la rapidité sans précédent avec lesquelles ces outils ont été adoptés par des centaines de millions de personnes dans le monde entier exercent une pression supplémentaire sur nos systèmes sociétaux et réglementaires.

Certains défis d’une importance cruciale devraient être notre priorité :

L’IA représente-t-elle vraiment un risque existentiel pour l’humanité ?

Malheureusement, au lieu de se concentrer sur ces risques tangibles, le débat public – et notamment les récentes lettres ouvertes – s’est surtout concentré sur les risques existentiels hypothétiques de l’IA.

Un risque existentiel désigne un événement ou un scénario potentiel qui représente une menace pour la pérennité de l’humanité, avec des conséquences qui pourraient endommager ou détruire la civilisation humaine de manière irréversible, et donc conduire à l’extinction de notre espèce. Un événement catastrophique mondial (comme l’impact d’un astéroïde ou une pandémie), la destruction d’une planète vivable (en raison du changement climatique, de la déforestation ou de l’épuisement de ressources essentielles comme l’eau et l’air pur) ou une guerre nucléaire mondiale sont des exemples de risques existentiels.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Notre monde est certainement confronté à un certain nombre de risques, et les développements futurs sont difficiles à prévoir. Face à cette incertitude, nous devons hiérarchiser nos efforts. L’éventualité lointaine d’une superintelligence incontrôlée doit donc être replacée dans son contexte, notamment celui des 3,6 milliards de personnes dans le monde qui sont très vulnérables en raison du changement climatique, du milliard de personnes qui vivent avec moins d’un dollar américain par jour ou des 2 milliards de personnes qui sont touchées par un conflit. Il s’agit de véritables êtres humains dont la vie est gravement menacée aujourd’hui, un danger qui n’est certainement pas causé par la super IA.

En se concentrant sur un hypothétique risque existentiel, on détourne notre attention des graves défis documentés que l’IA pose aujourd’hui, on n’englobe pas les différentes perspectives de la communauté des chercheurs au sens large, et on contribue à affoler inutilement la population.

Ces questions doivent être traitées dans toutes leurs diversités, complexités et nuances, pour le bien de la société humaine dans son ensemble. La société bénéficierait aussi de solutions concrètes et coordonnées pour relever les défis actuels de l’IA, y compris en termes de réglementation. Pour relever ces défis, il faut la collaboration et l’implication des secteurs les plus touchés de la société, ainsi que l’expertise technique et l’expertise de gouvernance nécessaire. Il est temps d’agir maintenant, avec ambition et sagesse, et en coopération.


Les auteurs de cet article sont membres du conseil d’administration du European Lab for Learning & Intelligent Systems (ELLIS).

This article was originally published in English

Want to write?

Write an article and join a growing community of more than 182,600 academics and researchers from 4,945 institutions.

Register now