Menu Close

Un algorithme peut-il parler d’éthique ?

Le dilemme du tramway. McGeddon/Wikimedia, CC BY-SA

Vous avez dit « machine morale » ? Au cours des dernières années, le MIT a mené l’enquête en ligne la plus vaste au monde pour découvrir comment une voiture autonome devrait réagir dans des situations extrêmes, un projet que l’on pourrait appeler la machine morale. L’étude a permis de parvenir à une conclusion simple : la façon dont vous pensez qu’une voiture devrait réagir dans une situation de vie ou de mort dépend de votre pays d’origine et des informations que vous détenez sur les piétons ou les passagers éventuellement impliqués.

Pour faire simple, la manière dont une personne souhaite que la voiture réagisse sera différente si le piéton est un enfant, une personne âgée ou un assassin. La voiture devrait-elle réagir en percutant le meurtrier pour ses crimes passés ? Ou percuter la personne âgée, un citoyen qui a déjà vécu une grande partie de sa vie ? Devrait-elle avoir accès aux archives publiques des casiers judiciaires ? Connaître votre âge ? Réagir au hasard pour éviter toute discrimination fondée sur les données disponibles ?

Quelques millisecondes pour décider

Ces questions sont normalement posées aux membres d’un tribunal ou lors d’une enquête judiciaire après l’accident. Mais, dans le cas de la voiture autonome, ce problème doit être résolu dans l’intervalle de temps entre la prise de décision et l’accident : soit quelques millisecondes, un délai souvent trop court pour prendre une décision en connaissance de cause. Et avec ce temps aussi court, ce qui compte n’est pas les informations que nous connaissons, mais celles que la voiture connaît. Alors, quelles informations une voiture devrait-elle connaître sur les personnes qui l’entourent ?

Il s’agit donc de déterminer quels principes une voiture devrait suivre et à quel moment. Plus fondamentalement, il s’agit de définir la relation fondamentale à venir entre les entreprises et les gouvernements. Différents constructeurs doivent-ils être mis en concurrence selon leur type de technologiques éthiques embarquées ?

Allons un peu plus loin encore. Que se passerait-il si une voiture chinoise, expédiée et utilisée aux États-Unis, était fabriquée avec des normes différentes de celles d’une voiture fabriquée aux États-Unis ? Imaginons que cette voiture chinoise et une voiture américaine soient sur le point d’entrer en collision. Si le système de conduite de la voiture chinoise est réglé avec des principes éthiques différents de celles du système de conduite de la voiture américaine, quel système sera-t-il utilisé ?

Bus chinois de nouvelle génération. Bert van Dijk/Flickr, CC BY-NC

Les différences qui émergent ne sont pas seulement culturelles, elles sont aussi juridiques. Les réglementations en matière de données entre les pays sont parfois très différentes ce qui signifie que différents paramètres sont utilisés pour prendre des décisions autonomes. Par exemple, une voiture chinoise aura accès à des données relatives au « score social », pas disponible aux États-Unis. En outre, les technologies peuvent également être différentes d’un constructeur automobile à l’autre, ce qui pourrait influencer fortement les prises de décision sur des considérations techniques principalement. Les cadres de régulation doivent prendre en compte ces questions pour déterminer où la responsabilité de la prise de décision commence et où elle se termine. La prise de décision incombe-t-elle à la ville, à la nation, ou autre ?

La voiture autonome constitue un exemple extrême de décision de vie ou de mort, mais l’enjeu est encore plus important si l’on considère les nuances d’inférences culturelles qu’il peut être nécessaire de comprendre correctement pour qu’une entreprise puisse effectuer des analyses et des suggestions raisonnables. La décision quant à la manière de diriger l’apprentissage de la machine et de tirer profit des différences sera confrontée à l’autonomie culturelle et, en définitive, à l’autonomie individuelle face aux décisions éthiques. On peut facilement imaginer des entreprises tentant de se différencier en expliquant dans leurs publicités que la vie du conducteur sera privilégiée dans de telles situations. Mais même dans ce cas, la capacité de fournir cette garantie en cas de collision dépend de la capacité des voitures à communiquer efficacement, ce qui réaffirme la nécessité de coordination.

Auront-elles les mêmes spécifications éthiques ? Tnarik Innael/Flickr, CC BY

La limitation des systèmes de l’intelligence artificielle est qu’ils ne tolèrent pas l’ambiguïté. Concevoir un système ou une application d’intelligence artificielle, une application d’intelligence artificielle, requiert une certaine spécificité. La machine ne fera que ce que vous lui dites de faire. Cela signifie que les entreprises, les gouvernements et les fournisseurs doivent faire un choix explicite lors de la mise en place de réponses face à certaines situations ou lors de la conception d’un système qui demande à un individu d’assumer le poids de la décision.

Cette spécificité amène à se poser la question de la définition de la nouvelle génération de solutions d’intelligence artificielle autonome en intégrant la responsabilité algorithmique : comment ces décisions sont-elles prises et quel(s) groupe(s) doivent s’y impliquer ? L’enjeu n’est pas simplement éthique, c’est-à-dire ce que le véhicule devrait faire, mais il concerne également les « décisions morales » : comment « la voiture devrait… » doit être compris et formulée. Ce n’est pas une question qui peut être traitée de manière responsable par les entreprises seulement.

L’enjeu n’est pas d’adopter une résolution ultime, du moins pas pour le moment, mais il est de créer des systèmes capables de communiquer et de résoudre les problèmes avec différentes préférences éthiques, et de fabriquer les véhicules à partir de ce principe.

Accord international sur l’éthique

En fonction de la spécificité et des exigences liées à la navigation, il se peut que de telles décisions éthiques fondées sur des principes moraux exigent davantage que l’amélioration des relations entre l’entreprise et le public, ou entre entreprises ; il peut être plutôt nécessaire qu’un organe international décide des normes selon lesquelles de telles questions morales et éthiques sont traitées et soi-disant résolues, et qu’il les évalue. Les voitures autonomes elles-mêmes auront besoin de la mise en place d’un accord international sur l’éthique de l’intelligence artificielle pour aider à standardiser les moyens de responsabilisation et la résolution de tels problèmes éthiques. Mais la question plus large de la responsabilité algorithmique, implique une diversité d’utilisations et de demandes allant bien au-delà des véhicules autonomes.

Fondamentalement, cela nous amène à cette question : lorsqu’elles utilisent des informations publiques, les entreprises ont-elles le droit de recourir à d’autres systèmes pour déterminer ce qui est important dans la prise de décisions cruciales, ou les décisions doivent-elles être simplement prises en fonction de l’emplacement du véhicule ?

À l’ère de l’intelligence artificielle, nous pensons que certains aspects des chaînes de valeur des entreprises, qu’il s’agisse de véhicules autonomes ou non, seront automatisés et accessibles à un point tel qu’ils ne seront plus considérés comme un domaine dans lequel nous pourrions essayer de rechercher un avantage concurrentiel. Parmi eux, nous devrions envisager d’inclure comment les entreprises prennent et résolvent des décisions éthiques. D’une manière ou d’une autre, de telles décisions seront prises.


Aurélie Jean, chercheuse en informatique computationnelle et fondatrice de la société Silico Veritas, a contribué à cet article.

Want to write?

Write an article and join a growing community of more than 182,000 academics and researchers from 4,940 institutions.

Register now