Menu Close
Un scientifique examine un robot
Devant une avalanche de textes dont on ne saurait s’ils sont corrects ou non, notre vigilance pourrait s’affirmer. studiostoks, shutterstock

ChatGPT nous rendra-t-il moins crédules ?

Il y a quelques semaines, le 30 novembre 2022, la société OpenAI a livré au monde une nouvelle intelligence artificielle spectaculaire, ChatGPT. Après DALL·E, qui génère des images à partir d’instructions rédigées en langage courant, ChatGPT est capable de mimer presque à la perfection des discussions entières, ou de répondre à des questions complexes en produisant des textes qui semblent tout droit sortis d’un cerveau humain.

Cette nouvelle avancée ne manque pas d’inquiéter, pour des raisons économiques (avec notamment la possible destruction de certains emplois), éthiques (avec par exemple le risque de voir les modèles de langage comme ChatGPT reprendre des discours racistes), ou « épistémiques », ce type d’IA ne faisant pas, à ce jour, la différence entre les informations fiables et les informations douteuses (le terme « épistémique » renvoie à la production ou l’acquisition de connaissances et d’informations fiables).

Il y a pourtant des raisons de penser que la démocratisation de ChatGPT et confrères pourrait être une bonne nouvelle, du moins pour notre rapport à l’information.

Menaces épistémiques

« L’intelligence artificielle peut être un danger épistémique parce qu’elle peut générer des informations convaincantes mais fausses. Cela pourrait remettre en question notre compréhension du monde ou même mettre en danger la validité de notre savoir. Cela a suscité des inquiétudes quant à la possibilité d’utiliser l’IA pour diffuser de la désinformation ou manipuler les croyances des gens. »

Ce n’est pas moi qui le dis, c’est… ChatGPT lui-même ! Le paragraphe qui précède a été généré par cette IA en lui posant cette question : « En quoi l’intelligence artificielle est-elle un danger épistémique ? » On le voit avec cet exemple, les réponses peuvent être très convaincantes. Et pourtant parfaitement sottes. Parfois la sottise saute aux yeux, parfois elle est moins facile à débusquer.

En l’occurrence, s’il n’y a pas grand-chose à redire à propos de la première phrase, la seconde est un cliché vide de sens : que veut dire au juste « remettre en question notre compréhension du monde » ou « mettre en danger la validité de notre savoir » ? La troisième phrase est une simple idiotie : ces IA ne diffusent rien, et ne sont peut-être pas les plus adaptées pour « manipuler » (car on ne contrôle pas bien ce qu’elles produisent).

Mais c’est bien ça qui pose problème : il faut réfléchir pour découvrir le pot aux roses.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Générateur de « bullshit »

Ce qu’il faut comprendre, c’est que ChatGPT n’est pas programmé pour répondre à des questions, mais pour produire des textes crédibles.


Read more: Quel avenir pour ChatGPT ?


Techniquement, ChatGPT est ce que l’on appelle un « modèle de langage ». Un modèle de langage est un algorithme, basé sur des technologies développées ces dernières décennies (les réseaux de neurones, l’apprentissage profond…), capable de calculer la probabilité d’une séquence de mots à partir de l’analyse d’un corpus de textes préexistants. Il est d’autant plus performant que la quantité de texte qu’il a pu « lire » est grande. Dans le cas de ChatGPT, elle est absolument phénoménale.

Ainsi, étant donnée une certaine séquence de mots, ChatGPT est capable de déterminer la séquence de mots la plus probable qui pourrait venir la compléter. ChatGPT peut ainsi « répondre » à une question, de manière nécessairement crédible, puisqu’il calcule la réponse la plus probable. Mais il n’y a aucune logique ni réflexion dans cette réponse. Il n’y a rien de plus qu’un calcul de probabilités. ChatGPT ne se préoccupe pas le moins du monde de la vérité de ses réponses. Autrement dit, c’est un générateur de « bullshit ».

Le « bullshit », depuis quelques années, n’est plus seulement une interjection anglo-américaine, traduisible en français par « foutaise » ou « fumisterie », mais aussi un concept philosophique, depuis que le philosophe Harry Frankfurt en a fait le sujet d’un article puis d’un livre dans les années 2000.

Aujourd’hui, ce sont des chercheurs très sérieux en psychologie, en philosophie, en neurosciences ou en sciences de gestion qui s’intéressent au bullshit. Le concept s’est complexifié mais on peut en retenir ici sa définition originale : le bullshit, c’est l’indifférence à la vérité. Ce n’est pas le mensonge : le menteur est préoccupé par la vérité, en sorte de mieux la travestir. Le bullshiteur, lui, s’en désintéresse et ne cherche qu’à captiver — ce qu’il dit peut parfois tomber juste, parfois non, peu importe.


Read more: Les cas de « bullshit à propos du bullshit » : le rationalisme perd-il son sang-froid ?


C’est exactement le cas du très talentueux ChatGPT : lorsque ça ne tombe pas juste, ça ne se voit pas — ou pas immédiatement. Un super-générateur de bullshit, accessible à tous, très simple d’utilisation ? Il y a bien de quoi être inquiet. On peut imaginer sans trop de peine comment cet instrument pourrait être employé très simplement par des éditeurs de contenu peu scrupuleux pour produire de l’« information », d’autant que ChatGPT semble bien pouvoir tromper même des experts académiques sur leurs propres sujets.

Vices et vertus épistémiques

Ce qui est en jeu, c’est une certaine éthique intellectuelle. Contrairement à une opinion très répandue, la production ou l’acquisition de connaissances (scientifiques ou non) n’est pas seulement une affaire de méthode. C’est aussi une affaire morale. Les philosophes parlent de vices ou de vertus « intellectuelles » (ou « épistémiques »), qui peuvent être définis comme des traits de caractère entravant ou au contraire facilitant l’acquisition et la production d’informations fiables.

L’ouverture d’esprit est un exemple de vertu épistémique, le dogmatisme un exemple de vice. Ces notions sont l’objet d’une littérature philosophique toujours plus abondante depuis le début des années 1990, l’épistémologie des vertus. Au départ essentiellement technique, puisqu’il s’agissait de définir correctement la connaissance, ces travaux concernent aussi aujourd’hui les problèmes épistémiques de notre temps : désinformation, fake news, bullshit notamment, ainsi bien sûr que les dangers soulevés par les intelligences artificielles.

Jusque récemment, les épistémologues des vertus discutant des conséquences épistémiques des IA portaient surtout leur attention aux « deepfakes », ces vidéos entièrement générées par des IA du type de DALL·E, et pouvant mettre en scène des individus bien réels dans des situations scabreuses parfaitement imaginaires mais saisissantes de réalisme. Les enseignements tirés de ces réflexions sur les deepfakes sont utiles pour penser les effets possibles de ChatGPT, et peut-être pour nuancer un pessimisme sans doute excessif.

La production de deepfakes est évidemment un problème, mais il est possible que leur généralisation puisse susciter dans le public l’apparition d’une forme de scepticisme généralisé à l’endroit des images, une forme de « cynisme intellectuel ». L’auteur ayant formulé cette proposition (en 2022) y voit un vice épistémique, car cela conduirait à douter autant des informations faisandées que des informations fondées. Je ne suis pas certain qu’un tel cynisme serait si vicieux : ce serait équivalent à revenir à une époque, pas si lointaine, où l’image n’occupait pas une place si grande pour l’acquisition d’information. Il ne me semble pas que cette époque (avant les années 1930) eut été particulièrement vicieuse épistémiquement.

Quoi qu’il en soit, ce cynisme pourrait à son tour susciter le développement d’une vertu épistémique : une certaine « sensibilité numérique », qui permettrait de correctement discerner le bon grain de l’ivraie dans la masse des images et des vidéos circulant sur Internet.

Une telle sensibilité numérique pourrait également être stimulée par ChatGPT. Les lecteurs des productions de cette IA, échaudés par le torrent de « bullshit » qu’elle risque de déverser, pourraient redoubler d’attention à la lecture d’un texte en ligne de la même manière qu’ils pourraient redoubler d’attention face à une image (de crainte d’être trompés par une deepfake) — sans pour autant tomber dans une forme de scepticisme généralisé.

D’un mal pourrait ainsi naître un bien. Plus généralement encore, la montée en puissance de ces IA pourraient mettre au premier plan la nécessité de cultiver les vertus épistémiques, et de combattre les vices, comme la disposition trop commune à ne pas mettre en doute les théories conspirationnistes circulant sur les réseaux sociaux. Au bout du compte, ces technologies inquiétantes pourraient être une bonne nouvelle pour l’éthique intellectuelle.

Want to write?

Write an article and join a growing community of more than 186,800 academics and researchers from 4,994 institutions.

Register now