Menu Close
Un écran d'ordinateur affichant du texte
L'interface web de DeepL, traduisant du français vers l'espagnol un court texte sur ChatGPT. (Jean-Hugues Roy), Author provided

La traduction a survécu à l’IA. D’autres métiers qui semblent menacés par ChatGPT survivront aussi

C’est peut-être une de vos fiertés. D’une idée qui prend forme dans vos neurones, vous avez le talent de la transformer en une phrase complète, bien tournée, dans un français impeccable. Si votre plume vous permet de gagner votre vie, en tout ou en partie, il est possible que vous ayez éprouvé une certaine angoisse la première fois que vous avez utilisé ChatGPT.

Les traductrices et les traducteurs connaissent bien ce sentiment. Depuis 2016, leur travail a été bouleversé par des systèmes de traduction automatique neuronale (basés sur des réseaux de neurones). Google Translate, Microsoft Translator ou DeepL sont aussi redoutables en traduction que ChatGPT peut l’être en rédaction.

En tant que professeurs spécialisés dans des disciplines différentes, nous avons travaillé ensemble sur des projets qui combinent traduction et journalisme. Comme chercheurs pour qui la langue est une matière première et qui utilisent tous deux des méthodes computationnelles, la popularisation des systèmes de rédaction automatisée comme ChatGPT nous a interpellés.

Un secteur en croissance

Penchons-nous d’abord sur les craintes que ces systèmes suscitent. Selon plusieurs experts, dont Ali Zarifhonarvar, doctorant en économie de l’Université de l’Indiana, les systèmes de rédaction automatisée sont des technologies à faible main-d’œuvre (labour-saving technologies) qui risquent de causer des pertes d’emploi en informatique, en communication, en droit et en éducation.

Pourtant, depuis l’arrivée de l’intelligence artificielle en traduction il y a une demi-douzaine d’années, le marché de l’emploi ne s’est pas tari. Il continue même de bénéficier de perspectives favorables selon Emploi Québec.

Les données de Statistique Canada sur la population active ayant travaillé toute l’année à temps plein et ayant déclaré un revenu d’emploi l’année précédente montrent que le nombre de traducteurs/traductrices, terminologues et interprètes est passé de 6 270 en 2016) à 7 400 en 2021). C’est une hausse de 18 % sur cinq ans, plus importante que l’augmentation du total pour toutes les professions, qui a crû de 6,1 % seulement au cours de la même période.

Ces données mettent en évidence que la catastrophe futuriste est restée une fiction. Non, la profession n’a pas été balayée par les robots. Ses effectifs ont même augmenté ! L’un des plus vieux métiers du monde a cependant dû s’adapter à l’intelligence artificielle.

Nouveau défi, nouveau créneau

Même si la traduction neuronale est désormais bien rodée, le sens de nombreux textes n’en demeure pas moins encore impénétrable pour les machines. C’est ainsi qu’a émergé depuis 2016 un nouveau métier qui consiste à réviser les traductions automatiques. Cette opération s’appelle la post-édition, expression qui nous vient de l’acception anglaise d’édition. La révision par un être humain fait même partie des normes de qualité de la traduction, ainsi que celles qui régissent l’évaluation des systèmes automatiques.

Nous avons constaté à quel point l’intervention humaine demeurait cruciale dans une étude que nous avons réalisée ensemble sur l’automatisation de la traduction dans la plus grande agence de presse au pays. En 2018, La Presse canadienne a mis au point Ultrad, un système maison de traduction basé sur Google Translate. Les journalistes de l’agence peuvent s’en servir pour traduire les dépêches de leurs collègues anglophones ou de l’Associated Press. Le tableau ci-dessous présente quelques-unes des erreurs commises par le système et les corrections effectuées grâce à la vigilance des journalistes.

Source (anglais) Traduction automatique (Ultrad) Post-édition (humain)
Steven Guilbeault will table a new greenhouse gas emissions plan in Parliament this morning. Steven Guilbeault déposera ce matin au Parlement un nouveau plan d'émissions de gaz à effet de serre. Steven Guilbeault déposera mardi matin au Parlement un nouveau plan de réduction des émissions de gaz à effet de serre.
Lich was arrested Feb. 17 and initially denied bail Lich a été arrêté le 17 février et a d'abord refusé la mise en liberté sous caution Mme Lich avait été arrêtée le 17 février, à Ottawa. Sa demande de remise en liberté sous caution avait d'abord été rejetée
The province says the more than $5-billion investment La province affirme que l'investissement de plus de 5 milliards de dollars Le gouvernement ontarien affirme que l'investissement de plus de 5 milliards $

Dans la première, le système ne savait pas que la réduction des émissions, sous-entendue en anglais, devait être précisée en français.

Dans la deuxième, il a masculinisé l’une des dirigeantes du mouvement des camionneurs qui ont occupé le centre-ville d’Ottawa, en 2022. Il a aussi compris qu’elle avait refusé sa propre mise en liberté, alors que celle-ci avait en fait été rejetée par un tribunal.

Dans la troisième, il n’a pas tenu compte que l’emploi de province au sens figuré pour référer à un gouvernement est admis en anglais, mais pas en français.

Certaines erreurs ont toutefois échappé à l’attention des humains. Le mot section, qui désigne en anglais un article dans une loi, a erronément été traduit par « section » dans un texte sur le projet de loi C-11 qui a été publié dans différents articles en mars 2022.

Gare à l’objectivité mécanique

Alors que les traducteurs devaient auparavant commencer par un texte dans la langue source, la traduction automatique leur propose une première version en apparence complète et bien tournée. Cette amorce a toutes les apparences d’un travail bien fait et y céder induit ce qu’on appelle l’« effet d’amorçage » (priming effect).

Cet effet peut de surcroît être renforcé par l’objectivité mécanique. De tout temps, les scientifiques ont cherché à écarter la subjectivité humaine dans leurs travaux. L’emploi d’appareils de mesure est donc associé à l’objectivité, la neutralité. Une certaine autorité épistémique accompagne leur utilisation, autorité qui est également conférée aux systèmes basés sur l’intelligence artificielle.

Les traductrices et les traducteurs connaissent bien ces phénomènes et ont appris à s’en méfier. Sous la surface polie des textes fabriqués par les systèmes de traduction automatique et des robots conversationnels comme ChatGPT se cachent subrepticement des erreurs de différentes natures que l’effet d’amorçage dissimule aux lecteurs peu attentifs.

Le travail en post-édition a habitué les professionnels de la traduction à les reconnaître, comme l’explique Thierry Grass, traducteur et professeur de traduction, dans son article « L’erreur n’est pas humaine ». Il nous dit notamment que les systèmes de traduction automatisée produisent des textes en apparence parfaits sur le plan de la forme, mais qui peuvent contenir des failles sur le plan du fond, du contenu, de la logique.

Les professionnels de la traduction ont en quelque sorte été des éclaireurs qui peuvent nous apprendre à composer avec les systèmes de rédaction automatisée comme ChatGPT. Et c’est ainsi qu’ils et elles ont pavé la voie à un usage critique des systèmes de rédaction automatisée et à une meilleure compréhension de leurs limites : raisonnements fallacieux, équivoques, raccourcis, ellipses, idées reçues, autant de nouvelles rubriques pour le classique de Normand Baillargeon, Petit cours d’autodéfense intellectuelle.

Want to write?

Write an article and join a growing community of more than 182,100 academics and researchers from 4,941 institutions.

Register now