Les traducteurs doivent-ils redouter la concurrence de l’intelligence artificielle ?

Portrait du traducteur, Laurent de Premierfait, de l'ouvrage, Des Cas des nobles hommes et femmes, de Jehan Bocace. Vers 1495. Wikipédia, CC BY-SA

À la fin de l’année dernière, le programme DeepL a, grâce à l’intelligence artificielle (IA) et à l’apprentissage profond (deep learning), traduit en une douzaine d’heures seulement un ouvrage de théorie informatique de 800 pages.

S’il est légitime de s’interroger à cette occasion sur la possible concurrence entre l’homme et la machine sur le marché du travail intellectuel (comme on l’a déjà fait dans d’autres secteurs d’activité), le discours médiatique est très vite emphatique dès qu’il s’agit de relayer les avancées de l’IA. En l’occurrence, on a pu parler d’une « grosse râclée », expression qui préfère souligner la menace plutôt que l’exploit technologique, comme s’il était plus important de souligner la concurrence entre les traducteurs humains d’un côté et les concepteurs du programme de l’autre que de suggérer que l’humanité pourrait marquer là un point collectif.

Ailleurs, sous le titre « Traduction automatique, robots écrivains… voilà la littérature du futur ! » s’imagine un futur de plus en plus proche où, les humains étant dépossédés de leur créativité, l’otium studiosum propice à la traduction de la poésie ou à l’écriture des romans céderait sa place au désœuvrement et à la consommation passive des chefs-d’œuvre des IA. Et inversement, l’appel à la sobriété des spécialistes de l’IA eux-mêmes semble être devenu un genre en soi.

Les universitaires spécialistes des littératures étrangères sont, entre autres, des traducteurs. Nous avons dans notre cursus été formés à la traduction littéraire (à côté, et c’est important, d’autres pratiques, comme l’histoire culturelle ou le commentaire de texte) ; nous enseignons d’une manière ou d’une autre la traduction, nous publions des traductions sous une forme ou une autre, et c’est une activité que nous pratiquons aussi pour le plaisir.

Mais si nous sommes des professionnels de l’écrit, nous ne sommes pas, pour la plupart, des spécialistes de la traduction automatique. Une partie de l’inconfort lié à l’IA vient sans doute de cette relation asymétrique : le robot s’invite dans le champ de compétence d’experts humains et semble y exceller, alors que les experts humains du domaine concerné se sentent, eux, souvent incompétents pour parler du robot. Dans ce cas, l’IA est pour eux une boîte noire.

C’est cette relation ambiguë entre le traducteur et l’IA traductive que je voudrais explorer ici.

Trois raisons de s’inquiéter

Le traducteur littéraire est un professionnel de l’écrit parmi d’autres, et un bon point de départ pour comprendre de quoi les professionnels de l’écrit ont peur est l’article du Guardian, paru en février dernier, où Hannah Jane Parkinson décrit le frisson qui l’a saisie quand le logiciel expérimental GPT2 a composé un article de presse complet sur la base d’un paragraphe qu’elle avait écrit. Sa première réaction est ainsi :

(a) it turns out I am not the unique genius we all assumed me to be ; an actual machine can replicate my tone to a T ; (b) does anyone have any job openings ?

(a) Il semblerait que je ne sois pas, contrairement à ce que nous croyions tous, un génie unique : une simple machine peut reproduire mon style à la lettre ; (b) est-ce que quelqu’un recrute ?

  • Le point (a) décrit une blessure narcissique : alors qu’on admet traditionnellement que la créativité stylistique (le ton, le style) définissent des individualités littéraires, la machine (qui n’a a priori pas de personnalité) peut émuler assez facilement ce genre de qualités ; on retrouve là la crainte du « chômage créatif » exprimée dans l’article de Marianne cité plus haut.

  • Le point (b) évoque un chômage beaucoup plus littéral : les performances impressionnantes du robot-écrivain en font un candidat viable pour remplacer un certain nombre d’acteurs humains du secteur de l’écrit – journalistes, traducteurs ou écrivains.

  • Il existe, sur le cas de GPT2, un troisième problème (c), auquel H.J. Parkinson consacre la seconde moitié de son article : celui des fake news, puisque l’IA forge complètement ses citations et ses analyses. GPT2 sait écrire en anglais non seulement correctement, mais en reproduisant des habitudes stylistiques, ce qui est une des compétences de la journaliste ; en revanche, GPT2 ne sait pas vérifier ses sources et n’a pas de déontologie, ce qui sont d’autres compétences de la journaliste.

Pour résumer : l’activité de la journaliste met en œuvre un ensemble de compétences à des niveaux divers (linguistique, stylistique, cognitif, éthique), et l’IA est (très) performante sur un certaines d’entre elles (mais pas toutes) ; d’où la crainte, en partie justifiée, d’une concurrence créative et économique.

La concurrence économique de l’IA

La dimension économique de la concurrence de l’IA au travail humain est l’un des problèmes les plus immédiats et les plus sérieux ; c’est sur celui-ci que Sylvie Vandaele, professeur de traduction scientifique à l’Université de Montréal, conclut son analyse du phénomène.

L’inquiétude de S. Vandaele vient moins de la prise en main de la traduction-machine par le traducteur humain que de la dévaluation, en terme de reconnaissance professionnelle et financière, de sa compétence. C’est un cas particulier des conséquences économiques indésirables des progrès de l’IA que Kai-Fu Lee, par exemple, envisageait à l’échelle mondiale en 2017. En somme, la menace économique est la plus immédiate parce que la décision de remplacer le travail humain par le travail automatique peut être prise à court terme.

Sylvie Vandaele souligne aussi que le remplacement économique des traducteurs humains par les machines procéderait, entre autres, d’une incompréhension de la « complexité » de la traduction, c’est-à-dire de ce que représente l’expertise traductologique : en d’autres termes, la décision de remplacer précipitamment le travail humain par le travail machine négligerait certains facteurs, comme la compétence généralisée des travailleurs humains.

Blessure narcissique et généralisation abusive

Parce que les IA qui composent des textes (ou les traduisent) atteignent très rapidement des résultats coûteux (en temps et en effort cognitif) pour l’homme, on a spontanément tendance à les considérer comme des rivaux en termes de créativité linguistique. Il y a cependant, à en croire certains spécialistes de l’IA, de sérieuses raisons de considérer qu’il s’agit là d’une généralisation abusive.

Cette généralisation repose sur le malentendu de la boîte noire. Impressionnés par les résultats fulgurants de l’IA, nous lui prêtons les capacités qu’il faudrait à un humain pour atteindre les mêmes résultats avec la même efficacité. Ce faisant, nous négligeons que l’IA fonctionne d’une manière très différente de la cognition humaine, et que nous ne pouvons pas prêter aux machines nos propres processus mentaux : il faut donc ouvrir la boîte noire.

Rodney Brooks oppose ainsi l’expérience humaine du frisbee à ce que peut en dire une machine qui génère automatiquement des légendes pour des photographies (il commente les résultats présentés par cet article) :

« Supposons qu’une personne nous dise que telle photo représente des gens en train de jouer au frisbee dans un parc. Nous supposons spontanément que cette personne peut répondre à des questions comme “Quelle forme a un frisbee ?”, “À quelle distance en gros peut-on lancer un frisbee ?”, “Peut-on manger un frisbee ?”, “Un enfant de trois mois peut-il jouer au frisbee ?”, “Le temps qu’il fait aujourd’hui se prête-t-il bien à une partie de frisbee ?”

Les ordinateurs qui peuvent légender une image “Joueurs de frisbee dans un parc” n’ont aucune chance de répondre à ces questions. »

Impressionnés par la performance du logiciel, nous ne voyons pas, ajoute Rodney Brooks, ses limitations. Or l’IA en apprentissage profond a un domaine d’action très étroit ; elle est extrêmement performante sur des « champs clos », c’est-à-dire « un type de données extrêmement limité », dans les termes de Gary Marcus et Ernest Davis.

De manière plus imagée, Kai-Fu Lee propose de voir ces IA comme « des tableurs sous stéroïdes entraînés sur le big data, qui peuvent surpasser les humains sur une tâche donnée ». Une IA à qui l’on pourrait effectivement prêter des processus cognitifs humains serait une « IA généralisée », c’est-à-dire « un ordinateur doué d’une conscience de soi, capable de raisonner à partir du sens commun, d’acquérir des connaissances dans des domaines variés, d’exprimer et de comprendre les émotions, etc. ».

On est loin, en d’autres termes, des robots qui rêvent et écrivent spontanément de la poésie, parce que le traitement de données massives par la machine n’est pour l’instant pas comparable à l’expérience cognitive du monde par l’homme. Si la concurrence économique est un problème immédiat, la concurrence existentielle n’est pas encore là.

Une distinction fondamentale : performance vs compétence

Ouvrir la boîte noire permet ainsi de mettre le doigt sur la distinction fondamentale entre performance et compétence. On pourra difficilement contester qu’une IA qui traduit 800 pages en quelques heures soit performante, et même beaucoup plus performante qu’un humain (ou même une équipe de traducteurs humains) ; on peut douter, en revanche, qu’elle soit vraiment compétente : c’est un argument fondamental dans les appels à la sobriété de spécialistes de l’IA comme Rodney Brooks.

Pour revenir à l’exemple de ce dernier : l’humain est compétent pour parler du frisbee ; pas la machine. En termes de philosophie de l’esprit : l’humain, pour parler comme Umberto Eco, possède un « type cognitif » du frisbee dans son « encyclopédie » personnelle. L’IA qui a impressionné H.J. Parkinson du Guardian est performante pour reproduire le style de la journaliste, mais elle n’est pas compétente pour remplacer la journaliste, parce que l’IA ne sait pas distinguer une information sourcée ou une citation authentique d’une fake news ou d’un propos forgé. Bref, il manque aux IA un ensemble très diversifié de compétences (qui sont liées à d’autres dimensions de la cognition humaine, comme notre affinité pour le vrai) pour se substituer globalement à l’humain.

C’est, entre autres, cette compétence généralisée des travailleurs humains qui fournit la base de l’argument de Sylvie Vandaele pour défendre la traduction humaine. Outre le fait que l’IA elle-même est le produit de la compétence des informaticiens et linguistes qui ont travaillé à son élaboration, l’expertise traductologique humaine a été convoquée à toutes les étapes du processus automatique :

  • en amont du processus, il a notamment fallu élaborer « un dictionnaire de 200 termes spécifiques » des domaines mathématiques et informatiques, ce qui suppose une maîtrise a priori du texte-source et des deux langues, pour introduire dans sa traduction cohérence et continuité au niveau du lexique le plus technique ;

  • pendant le processus lui-même, la machine travaille et « apprend » grâce à la compilation d’un impressionnant corpus de référence constitué de textes rédigés et traduits par l’homme. L’apprentissage profond est avant tout l’interprétation statistique d’un vaste échantillon du travail humain : sans cette masse de données, dont la qualité (et donc la compétence de ses auteurs humains) détermine la performance de la machine, l’IA ne serait pas aussi performante ; comme l’explique l’un des concepteurs du logiciel : « La performance de Deepl tient à son corpus très bien traduit ».

  • en aval du processus, il a fallu relire et corriger la traduction pour la valider définitivement, ce qui est un processus standard aussi pour la traduction humaine. Il a notamment fallu ajuster la ponctuation et « élargir le contexte ». Quoique ces modifications soit présentées comme « marginales », elles sont révélatrices : la ponctuation rythme le texte et, en fluidifiant la lecture, facilite son assimilation par le lecteur ; la notion vague de contexte renvoie, encore une fois, au fonctionnement « encyclopédique » (U. Eco) de la connaissance humaine. En d’autres termes, il a fallu réajuster le produit du travail machine pour qu’il s’insère au mieux dans le rythme et l’univers cognitifs humains, ce que l’IA est incapable d’évaluer.

Conclusion provisoire

Pour résumer : la compétence de la machine est, quand on ouvre la boîte noire, d’une nature différente de la compétence humaine ; et la performance de la machine repose, en dernière analyse, sur la compilation des produits de la compétence humaine. Le danger vient moins d’une concurrence existentielle immédiate d’une IA qui est très loin d’être généralisée que de décisions économiques… qui seront prises par des hommes.