Menu Close

Ethique du robot et de la robotisation

Robots jouets. D J Shin/Wikimedia, CC BY-SA

Cet article est publié dans le cadre de la Fête de la Science 2017 dont The Conversation France est partenaire. Retrouvez tous les débats et les événements de votre région sur le site Fetedelascience.fr.


Les robots envahissent de plus en plus notre quotidien – des robots de jeux destinés aux enfants aux robots de déminage de l’armée, en passant par les tondeuses automatiques. Ce mouvement n’en est qu’à ses débuts, et il faut s’attendre à une généralisation des robots dans un futur proche. Quelles questions éthiques pose cette robotisation croissante ?

Il me semble en voir deux principales : qu’a-t-on le droit de faire faire à un robot, d’une part, et les robots sont-ils susceptibles de devenir eux-mêmes des sujets éthiques, d’autre part ?

Qu’a-t-on le droit de faire faire à un robot ?

Faire tondre sa pelouse ou passer l’aspirateur à un robot ne semble pas poser de questions éthiques particulières. Mais la robotisation, déjà ancienne, des chaînes d’usine pose déjà une question sociale aiguë en obligeant à repenser ce que peut être l’emploi des humains dans un monde où l’industrie est automatisée. Ce n’est pourtant qu’un début. Or la généralisation des robots va poser des questions éthiques de plus en plus graves, et il est urgent de réfléchir à ce que nous sommes prêts à leur déléguer. Plusieurs pistes semblent poser des problèmes sérieux. Examinons-en deux, l’univers du service à la personne et les robots tueurs.

Le robot chinois Sanbot, notamment utilisé en milieu hospitalier. QIHAN Technology

Des robots aides-soignants. De plus en plus de robots sont pensés pour améliorer notre quotidien par leur présence. Quand il s’agit de robots joueurs, comme Cozmo, destinés à amuser les enfants, cela ne pose pas plus de questions qu’un simple jeu vidéo (mais pas moins, il est vrai). Mais quand il s’agit de remplacer les aides-soignantes dans un hôpital ou les auxiliaires de vie dans une maison de retraite, ces questions deviennent plus ardues. Le Japon par exemple, développe des programmes de ce genre.

Avec le vieillissement de la population, il serait certes dommage de se priver de l’appoint apporté par les robots pour de multiples tâches y compris –pourquoi pas ? – pour jouer au Scrabble. Mais remplacer toutes les aides humaines par des robots revient à priver la personne d’un droit à des relations vraiment humaines. Programmé pour plaire et satisfaire, le robot n’aura jamais la complexité des relations d’un être humain – complexité qui en fait tout le sel.

Certains robots comme Pepper au Japon sont déjà capables de vous écouter et de réagir à vos émotions, mais ils sont – par principe – incapables de partager leurs propres soucis existentiels, parce qu’ils n’en ont pas. L’écoute est à sens unique. À moins qu’on programme des robots à simuler des problèmes personnels, ce qui reviendrait à faire vivre la personne aidée dans l’illusion. N’être entouré que de robots ne risque-t-il pas, en définitive, d’engendrer des psychoses, tant l’interaction humaine est indispensable au psychisme ? Le psychanalyste Serge Tisseron a étudié les risques liés à cette empathie artificielle.

Enfin, d’un point de vue social, la robotisation des auxiliaires de vie dédouane les humains à bon compte du problème de l’aide à apporter aux personnes âgées. C’est, au fond, une élégante manière de se débarrasser de la question. Cette difficulté éthique atteint son sommet quand on envisage d’employer des robots comme assistants sexuels. L’idée même semble psychotique, tant elle revient à prendre un fantasme pour la réalité et un objet artificiel pour un être vivant.

Robots tueurs. L’autre univers inquiétant est celui des robots tueurs. Actuellement, les armées occidentales, en particulier l’US Army, utilisent déjà des drones armés comme le Predator. Mais ces drones ne sont pas autonomes. La décision de tirer ou non est prise par un être humain qui téléguide l’engin. Mais il est, aujourd’hui, techniquement possible de passer à l’étape suivante et de réaliser des robots qui décident seuls de tirer ou non, comme notre robot aspirateur décide seul de la manière de contourner un obstacle. Des spécialistes de l’intelligence artificielle ont déjà tiré la sonnette d’alarme.

Manifestation contre les robots tueurs. Sharron Ward for the Campaign to Stop Killer Robots/Flickr, CC BY-NC

De tels engins seraient éthiquement insupportables pour deux raisons : primo, décider de tirer est une décision moralement forte, mobilisant de nombreux facteurs et qui relève finalement plus de l’instinct que du calcul. L’abandonner à la froideur rigide d’un logiciel, c’est se vouer à des erreurs meurtrières. Secundo, face à ces erreurs, personne ne serait responsable. Il n’y aurait pas de soldat humain à convoquer devant une commission ou un tribunal. De nouveau, mais à une échelle bien plus grave, l’humanité se délesterait de sa responsabilité.

Les robots sont-ils susceptibles de devenir des sujets éthiques ?

Certains veulent déjà doter les robots d’une personnalité juridique pour lever les problèmes de responsabilité. Mais peut-on imaginer un robot à l’intelligence si perfectionnée qu’elle en devienne capable de décisions éthiques au sens fort et, par conséquent, acquiert des droits et des devoirs envers ses compagnons humains ? Si de tels robots étaient possibles, pour le coup, les objections que nous avons émises au point précédent tomberaient, il n’y aurait plus aucune raison de leur refuser les décisions qui, aujourd’hui, relèvent de l’homme.

Laurent Alexandre, l’auteur transhumaniste, est persuadé que cette situation va se concrétiser prochainement. Nick Bostrom invite à s’interroger dès maintenant sur les conséquences des intelligences artificielles morales. Paul Dumouchel et Luis Damiano émettent, toutefois, une objection : nul ne réalisera de robot moral parce que ces robots, par définition, seraient capables d’être immoraux et nul n’a envie de voir ce que donnerait un robot vicieux. Il est possible de répondre deux choses à cette objection : primo, rien ne garantit qu’un fou n’essayera pas quand même ; secundo, cela ne tranche pas le débat de principe : un robot peut-il développer un sens éthique ?

Derrière cette question se joue notre conception de la conscience. Si nous acceptons l’idée selon laquelle la conscience humaine ne serait qu’un processus mathématique, il sera un jour ou l’autre possible de la coder informatiquement et les robots nous battront dans tous les domaines, y compris la morale. Mais là est bien la question.

La philosophie débat de cette question depuis longtemps. Par exemple, tout le courant nommé phénoménologie, né avec le philosophe autrichien Husserl, nie que la conscience soit un simple logiciel. La conscience est esprit, elle ne se laisse pas réduire à sa part calculatoire, aussi vaste et impressionnante soit cette dernière. En particulier, la morale relève bien plus de l’esprit de finesse cher à Pascal que de l’esprit de calcul.

Faire croire le contraire et chercher des robots éthiques ne peut qu’aboutir à des déceptions ou à des drames. Le robot est un outil très perfectionné et très utile. Pas moins, mais pas plus.

Want to write?

Write an article and join a growing community of more than 182,400 academics and researchers from 4,942 institutions.

Register now