Faut‑il réglementer l’intelligence artificielle ?

Data center. Akela999/Pixabay

Il ne fait aucun doute que l’intelligence artificielle (IA) transforme presque toutes les facettes de la vie humaine. On ignore encore jusqu’où ira cette transformation et quelles en seront les ramifications pour la société, mais cela n’a pas empêché les prédictions optimistes et pessimistes de s’affronter.

L’appel d’Elon Musk en faveur de l’IA règlement a été suivi par des appels semblables pour que les gouvernements ne réglementent pas.

Une question de définition

L’un des principaux problèmes avec l’IA est la confusion qui règne sur sa définition : ce qu’elle est exactement et ce qu’elle peut et ne peut pas faire réellement. Mais, pour vraiment comprendre ce qu’est l’IA, il faut aborder clairement le point suivant : comment les techniques actuelles d’IA, comme l’apprentissage profond, diffèrent de l’intelligence humaine.

Pour répondre à certaines de ces questions, l’OCDE a organisé en octobre 2017 une conférence sur l’IA. Des représentants du gouvernement et de l’industrie, des universitaires et d’autres intervenants se sont réunis pour examiner la situation actuelle et se demander ce que les gouvernements pourraient et devraient faire pour élaborer une politique visant à tirer parti des avantages de l’IA tout en minimisant les risques.

La première chose qui est apparue clairement, c’est que la discussion était principalement centrée sur l’apprentissage automatique et en particulier sur l’apprentissage profond. Les logiciels d’apprentissage profond apprennent à reconnaître les modèles à partir des données. Google, par exemple, l’utilise pour reconnaître les animaux de compagnie via leurs visages. Une autre société, DeepL, utilise l’apprentissage profond pour faire des traductions de haute qualité.

Les conférenciers ont souligné que l’apprentissage profond ne fonctionne que parce qu’il utilise une grande quantité de données traitées sur des ordinateurs puissants. Il est devenu une technique performante parce que les entreprises ont accès à de grandes quantités de données et, en même temps, à de grandes quantités de puissance de traitement bon marché.

Quid des données de l’IA ?

Avec l’utilisation de grandes quantités de données, des questions se posent immédiatement quant à l’endroit d’où les données sont collectées et à quoi elles servent exactement.

L’utilisation de grandes quantités de données potentiellement personnelles soulève des préoccupations sur le plan de la protection de la vie privée et de la façon dont ces données sont utilisées pour déterminer les résultats ayant des conséquences réelles.

Aux États-Unis, par exemple, l’apprentissage profond est déjà utilisé pour calculer à quel point un délinquant doit être condamné dans les affaires judiciaires. Il n’y a aucun moyen pour quiconque de savoir comment le logiciel est arrivé à chacune des décisions, en particulier quels facteurs dans les données ont été les plus importants dans la prise de cette décision. Dans un cas aux États-Unis, la détermination de la peine assistée par ordinateur a été par la suite contestée. Le recours a toutefois échoué parce que les tribunaux estimaient que les résultats du système d’apprentissage automatique de la fixation de la peine étaient suffisamment transparents, et qu’il ne fallait pas dévoiler davantage de détails sur le fonctionnement du système.

Risques de biais

Joanna Bryson, chercheuse en IA, a précédemment montré que les données utilisées pour la formation à l’apprentissage automatique contiennent toute une série de biais, y compris ceux liés à l’origine ethnique et au sexe. Cela a de graves conséquences sur les décisions qui sont prises lorsque les systèmes d’IA sont nourris de ce type de données. Les données biaisées renforceront encore le biais dans les décisions de ces systèmes.

D’autres chercheurs ont montré qu’il est possible de corrompre les données utilisées pour apprendre à la machine : par exemple, en trompant des voitures autonomes en ajoutant du ruban argenté à un panneau de signalisation, ce qui pourrait déclencher une action inappropriée du véhicule.

Si les avantages de l’apprentissage automatique ne peuvent être pleinement exploités sans l’accès à un grand nombre de données, il faut néanmoins trouver un équilibre entre les risques de concentration de la collecte de données de plus en plus personnelles, concentrées entre les mains d’un petit nombre d’entreprises ou de gouvernements.

De nombreux participants à la conférence ont estimé que les données constituaient le moteur central de l’IA et le domaine dans lequel les gouvernements avaient le plus besoin d’une réglementation. Un autre domaine qui mérite une attention particulière est le concept de transparence.

Ce qu’est l’IA. Gerd Leonhard/Flickr, CC BY-SA

Qui est responsable ?

Une autre série de questions importantes se pose en ce qui concerne la responsabilité du fait des produits et la responsabilité des entreprises. Si une voiture autonome cause un accident, qui devrait être tenu pour responsable ? Le fabricant de la voiture, le développeur de logiciel du composant IA qui a fait défaut, ou le propriétaire du véhicule ? Encore une fois, il y a eu beaucoup de discussions sur le sujet, mais aucune conclusion solide, même si l’on s’attend à ce que la responsabilité incombe aux fabricants de voitures.

Dans cette discussion sur l’IA, on a aussi souligné la possibilité que son impact soit exagéré. Les applications qui ont le plus d’impact aujourd’hui sont des exemples de reconnaissance de formes et non pas relatives à l’intelligence générale. Cette capacité humaine est encore très utile dans de nombreux domaines tels que la science, la médecine, la cybersécurité et bien d’autres encore.

Que devrait donc faire le gouvernement ?

En ce qui concerne ce que les gouvernements devraient faire, il y a eu un accord implicite selon lequel ils devraient permettre à l’IA d’être utilisée pour les avantages évidents qu’elle procure à la société. Il convient de contrebalancer cette situation en minimisant les risques liés à la collecte accrue de données à caractère personnel et les risques liés à la manière dont l’IA utilise effectivement ces données.

Il y a beaucoup d’autres sujets de discussion qui deviennent de plus en plus importants pour les gouvernements et le public à propos du rôle de l’IA dans leur société. Ce qui en fait un défi, c’est que l’IA touche plus ou moins tous les aspects de la vie. Ce que nous ne savons pas encore, c’est jusqu’où ira le développement de l’intelligence artificielle et, en fin de compte, jusqu’ à quel point elle réussira à devenir une intelligence généralisée, de type humain.