Menu Close
Depuis plusieurs années déjà, des voix se font entendre pour alerter sur les dangers que pourraient représenter les robots tueurs. Cette photo a été prise en avril 2013, à Londres, lors du lancement de la « Campaign to Stop Killer Robots », qui regroupe plusieurs organisations non gouvernementales. Campaign to Stop Killer Robots/Flickr, CC BY-NC

Robots tueurs et kamikazes : notre humanité en question

« Un drone armé n’est pas un robot tueur », a d’emblée précisé, comme pour évacuer le débat, la ministre des Armées, Florence Parly, après avoir annoncé que les drones français allaient être équipés de munitions. Ce sujet suscite, en effet, l’inquiétude. À la fin du mois d’août, les Nations unies recevaient une lettre ouverte de 116 dirigeants d’entreprises de robotique et d’intelligence artificielle visant à les interdire.

La ministre de la Défense, Florence Parly, le 31 juillet, lors de sa visite de la base de Niamey (Niger) où stationnent les drones de l’armée française. Boureima Hama/AFP

Par une curieuse coïncidence, l’envoi de cette lettre suivait de quelques jours les attentats de Barcelone. Le télescopage de ces deux évènements n’est pas sans rappeler l’une des séquences d’une version du film RoboCop, sorti en 2014, dans laquelle le spectateur est confronté à un improbable combat entre des robots tueurs et des kamikazes.

Cette scène n’est pas aussi incongrue qu’elle paraît. Comme l’a montré Grégoire Chamayou dans sa « théorie du drone », il y a bien un lien entre les deux. Pour Bart Everett, directeur de la division robotique et systèmes avancés du Space and Naval Warfare Systems Command (SPAWAR), le robot serait la réponse américaine à l’attentat suicide. En réalité, il semblerait que depuis la Seconde Guerre mondiale, ces deux logiques tueuses évoluent en parallèle. Comme deux doubles inversés d’un même phénomène, nous assistons aujourd’hui à une « humanisation » des machines de guerre d’un côté et à une « mécanisation » des êtres humains de l’autre.

Convergence de deux « techniques »

Chamayou établit un lien entre les kamikazes et les drones : il y voit une opposition entre, d’un côté, un acte « engageant l’homme autant que possible » et, de l’autre, un acte l’engageant « le moins possible ». Il oppose ainsi un « acte vivant » à un « geste mécanique ». Pourtant, l’histoire des kamikazes et des projets de robots tueurs semble montrer indéniablement une forme de convergence de ces deux « techniques ». Un bref rappel historique peut nous permettre de mieux comprendre les possibles interférences entre les deux phénomènes.

Yukio Araki, 17 ans (au centre), pose avec d’autres pilotes japonais, le 26 mai 1945. Le lendemain, il trouvera la mort dans une attaque kamikaze. Wikimedia

Dans les années 1930, un ingénieur de la Radio Corporation of America (RCA), Vladimir Zworykin, découvre que le Japon envisage de former des escadrons de pilotes pour des missions suicide. Il lui semble que la meilleure réponse serait de créer des avions radio-contrôlés, équipés d’une caméra. Ce qu’il décrit n’est en fait rien d’autre que la définition de l’ancêtre des robots tueurs : les drones.

En 1942, un mathématicien, Norbert Wiener, découvre que la trajectoire que suit le pilote d’un avion est prévisible, même lorsqu’il essaie de surprendre la DCA en faisant des manœuvres d’évitement. Il imagine alors le premier système automatisé de tir anti-aérien : l’AA Predictor, prédécesseur du Phalanx CIWS, actuellement en service dans la marine américaine. Ce système très sophistiqué permettait de suppléer à l’incapacité humaine de prévoir, calculer et réagir avec la rapidité requise pour abattre les appareils ennemis.

Un Phalanx CIWS sur l’USS Tortuga. U.S. Navy

Quelques années après, alors que les premières opérations suicide ont déjà eu lieu, les Japonais élaborent deux curieux engins. Le premier est une sorte de bombe volante, le second une torpille. Les deux engins ont été pensés comme des projectiles autonomes équipés d’un mécanisme de guidage intelligent en leur sein : un être humain. Le Kaiten est à cet égard particulièrement intéressant : il s’agit d’une torpille Type 93 que l’on a coupé en deux pour pouvoir placer en son centre une petite cabine de pilotage.

Schéma d’un Kaiten de type 1. Lakkasuo/Wikimedia Commons

1945 : perte de confiance dans l’humanité

La Seconde Guerre mondiale et l’explosion des premières bombes atomiques sur Hiroshima et Nagasaki eurent un impact significatif dans la communauté scientifique sur la confiance accordée à l’entendement humain, et donc à la notion même d’humanité. La cybernétique, apparue en 1947, en est marquée. Son existence éphémère ne l’empêcha pas d’influencer profondément la société américaine et d’orienter l’effort de recherche militaire en direction de systèmes intelligents.

Pour Norbert Wiener, qui est l’un des fondateurs de la cybernétique, les systèmes automatiques sont des vecteurs de régulation des sociétés humaines. Il est donc nécessaire de constituer des réseaux mixtes composés de machines et d’humains. Systèmes vivants et êtres automatiques sont alors sur le même plan. C’est ainsi que dans la cybernétique, il est « difficile de décider si ce sont les machines qui sont humanisées ou les vivants qui sont pensés comme des machines ». Curieusement, l’observation et l’analyse conjointe des kamikazes et des robots tueurs semble corroborer ce propos.

Dès les années 1950, les Américains investirent fortement dans des systèmes automatisés. L’énorme projet de défense anti-aérienne SAGE en est le meilleur exemple. À cette même époque, le Viêt Minh systématisa, pendant la guerre d’Indochine, l’usage des « volontaires de la mort ». Ce phénomène, qui persista lors de la guerre du Vietnam, encouragea les militaires américains à lancer la conception des premiers drones.

Tombé dans l’oubli, l’usage systématique des kamikazes est réapparu avec la guerre Iran-Irak, au début des années 1980. L’occupation de l’Irak a largement contribué au développement des kamikazes, ensuite institutionnalisé par l’organisation État islamique comme une technique prioritaire de guerre avec, entre autres, des véhicules chargés d’explosifs se jetant sur les lignes ennemies.

Mécaniser l’humain

Dès les années 1950 et 1960, le Viêt Minh avait recours à des formateurs spécialisés dans la préparation des « volontaires de la mort ». Aujourd’hui, lorsqu’il a lieu, cet entraînement a pour objet d’éliminer chez les aspirants deux principes humains fondamentaux. Le premier correspond à l’objectif premier guidant la conduite de tout être vivant : rester en vie. Tel un système automatique, le kamikaze devra maintenant subordonner cette constante vitale à la réussite de sa mission. Lever ce premier obstacle est décisif pour deux raisons. Tout d’abord parce que c’est de loin le plus difficile à surmonter : la peur tenaille le volontaire de la mort. Mais également car un individu détaché de lui-même peut être plus facilement détaché des autres.

Le second principe correspond, selon François Géré, à « la conscience de son semblable, ce sentiment d’appartenance à l’espèce humaine ». Pour lever ce deuxième obstacle, il ne restera plus qu’à réifier l’ennemi.

Humaniser la machine

Accorder à une machine le droit de tuer un homme, de tirer sur un corps, n’a rien d’anodin : il s’agit essentiellement d’un attribut humain. À ce jour, il n’existe qu’un seul exemplaire de cette nouvelle technologie : le Samsung SGR-A1, installé à la frontière entre les deux Corées. Ses automatismes peuvent néanmoins être débranchés à distance par un opérateur. Pour accorder ce droit à des robots, il est nécessaire de les parer d’un humanisme supérieur à celui des êtres humains. Régis par des algorithmes éthiques, faisant appel à des bases de connaissances étendues, ils seraient en mesure de pouvoir « se comporter de façon plus humaine que les êtres humains dans ces circonstances difficiles ».

Ce type d’argumentation n’a rien d’exceptionnel. Ainsi récemment, NBC News a fait état de l’essor d’un programme employé pour assister les juges américains des libertés. L’algorithme étant censé être plus rationnel et équitable que les juges qu’il assiste.

Le Samsung SGR-A1. MarkBlackUltor/Wikimedia Commons

Robots tueurs et kamikazes semblent poser une même question, celle de notre humanité. Il paraît utile de citer les propos d’Eyad El-Sarraj, directeur du programme de santé mentale de Gaza : « Comment pouvez vous croire en votre propre humanité si vous ne croyez pas en l’humanité de l’ennemi ? ».

Want to write?

Write an article and join a growing community of more than 180,400 academics and researchers from 4,911 institutions.

Register now