Menu Close
Dessin numérique représentant deux visages
Attribuer de la pensée, de la créativité et des sentiments à un agent non-humain ne nous aide pas à bien appréhender les outils numériques. Image by Alana Jordan from Pixabay

ChatGPT : face aux artifices de l’IA, comment l’éducation aux médias peut aider les élèves

Qui n’a jamais entendu parler de ChatGPT, cette intelligence artificielle générative, capable de répondre par des textes complexes aux requêtes lancées par des internautes ? La sortie en décembre 2022 de ce logiciel conçu par la société OpenAI a suscité une multitude d’articles, entre visions de catastrophe et utopie, produisant une panique médiatique, comme l’illustre la lettre ouverte de mars 2023 demandant un moratoire dans le développement de ce type de systèmes, signée par un millier de chercheurs.

Comme le montre une étude de la Columbia Journalism Review, la panique n’a pas commencé en décembre 2022 avec l’événement lancé par OpenAI mais en février 2023 avec les annonces de Microsoft et Google, chacun y allant de son chatbot intégré dans leur moteur de recherche (Bing Chat et Bard, respectivement). La couverture médiatique opère un brouillage informationnel, se focalisant davantage sur le potentiel remplacement de l’humain que sur la réelle concentration de la propriété de l’IA dans les mains de quelques entreprises.


Read more: Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage


Comme toute panique médiatique (les plus récentes étant celles sur la réalité virtuelle et le métavers), elle a pour but et effet de créer un débat public permettant à d’autres acteurs que ceux des médias et du numérique de s’en emparer. Pour l’éducation aux médias et à l’information (EMI), les enjeux sont de taille en matière d’interactions sociales et scolaires, même s’il est encore trop tôt pour mesurer les conséquences sur l’enseignement de ces modèles de langage générant automatiquement des textes et des images et de leur mise à disposition auprès du grand public.

En parallèle des actions politiques de régulation, l’EMI permet aux citoyens de se prémunir des risques liés à l’usage de ces outils, en développant leur esprit critique et en adoptant des stratégies d’usages appropriées et responsables. L’algo-littératie, ce sous-champ de l’EMI qui considère ce que les data font aux médias, permet d’appliquer ces clés de lecture à l’IA. Voici quatre directions dans lesquelles l’EMI peut nous aider à nous retrouver dans ces chaînes d’interactions algorithmiques, de leurs productions à leurs publics.

Tenir compte de la géopolitique de l’IA

Ce sont les entreprises contrôlant les moteurs de recherche et donc l’accès à l’information, Google et Microsoft, qui ont le plus à gagner dans le développement des IA génératives. Elles s’organisent, à l’américaine, en duopole, avec un (faux) challenger, OpenAI LP. Il s’agit en fait du bras commercial du laboratoire initialement à but non lucratif OpenAI (financé par Microsoft en grande partie).

UE et IA : la régulation au menu des députés européens (TV5 Monde, juin 2023).

Une autre histoire peut être racontée, surtout par les médias, celle de l’incroyable concentration de pouvoir et d’argent par un très petit nombre d’entreprises de la Silicon Valley. Elles se donnent le monopole de l’accès à l’information et de toutes les productions en découlant. Elles alimentent la concurrence frontale entre États-Unis et Chine sur le sujet. La stratégie de Google et Microsoft a en effet pour but de couper l’herbe sous les pieds du gouvernement chinois, qui ne cache pas ses ambitions en matière de développement de l’IA.

L’option d’une pause ou d’un moratoire relève de la chimère, face à ce qui est l’équivalent d’une course aux armements. Les inventeurs eux-mêmes, en apprentis sorciers repentis, dont Sam Altman le directeur général de OpenAI, ont proposé en mai 2023 « une gouvernance de l’IA ». Mais ne serait-ce pas dans l’espoir de ne pas subir de plein fouet une réglementation gouvernementale qui leur échapperait et mettrait un frein à leurs intentions commerciales ? L’Union européenne a anticipé en préparant un règlement IA pour réguler les usages de cette nouvelle évolution du numérique.

S’interroger sur la qualité des textes et des images fournis

Tout ce qui est plausible n’est pas nécessairement porteur de sens. L’IA qui pilote le logiciel ChatGPT fait des propositions sur la base de requêtes et elles apparaissent rapidement… dans un langage plutôt stylé et de bonne tenue ! Mais cela peut générer des erreurs, comme l’a compris, à son grand dam, un avocat de New York qui avait monté un dossier truffé de faux avis judiciaires et de fausses citations juridiques.

Il faut donc se méfier de la pseudo-science générée par l’IA. Les contenus proposés peuvent présenter des biais car ils sont issus de l’exploitation d’énormes banques de données. Celles-ci incluent des ensembles de data avec des sources de toutes sortes… dont les médias sociaux ! La dernière version gratuite de ChatGPT s’appuie sur des données qui s’arrêtent à début 2022, donc pas vraiment au point sur l’actualité.

Ces banques de données sont pour beaucoup issues des pays anglophones, avec les biais algorithmiques attenants. De fait ChatGPT risque de créer de la désinformation et de se prêter à des usages malveillants ou d’amplifier les croyances de ceux qui l’utilisent.

Hologramme numérique du cerveau avec l’IA, icônes du chat et enfant prenant des notes
Si l’IA produit des textes qui peuvent sembler bien écrits, cela ne garantit en rien la validité des informations transmises. Shutterstock

Il est donc à utiliser comme tout autre instrument, comme un dictionnaire auprès duquel faire une recherche, élaborer un brouillon… sans lui confier de secrets et de données personnelles. Lui demander de produire ses sources est une bonne consigne, mais même cela ne garantit pas l’absence de filtres, le robot conversationnel ayant tendance à produire une liste de sources qui ressemblent à des citations mais ne sont pas toutes de vraies références.

Par ailleurs, il ne faut pas oublier les problèmes de droits d’auteur qui ne vont pas tarder à rentrer en action.

Se méfier des imaginaires autour de l’IA

Le terme d’intelligence artificielle n’est pas approprié pour ce qui relève d’un traitement de données préentrainé (le sens de l’acronyme GPT pour generative pre-trained transformer).

Cet anthropomorphisme, qui nous mène à attribuer de la pensée, de la créativité et des sentiments à un agent non humain, est négatif à double titre. Il nous rappelle tous les mythes anxiogènes qui alertent sur la non-viabilité de toute porosité entre le vivant et le non-vivant, du Golem à Frankenstein, avec des peurs d’extinction de la race humaine. Il dessert la compréhension sereine de l’utilité réelle de ces transformateurs à grande échelle. La science-fiction ne permet pas de comprendre la science. Et donc de formuler des repères éthiques, économiques, politiques.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Ces imaginaires, pour actifs qu’ils soient, doivent être démystifiés. Ladite « boite noire » de l’IA générative est plutôt simple dans son principe. Les modèles de langage à grande échelle sont des algorithmes entraînés à reproduire les codes du langage écrit (ou visuel). Ils parcourent des milliers de textes sur Internet et convertissent une entrée (une séquence de lettres par exemple) en une sortie (sa prédiction pour la lettre suivante).

Ce que l’algorithme génère, à très grande vitesse, c’est une série de probabilités, ce que vous pouvez vérifier en refaisant la même requête et en voyant que vos résultats ne sont pas les mêmes. Aucune magie là-dedans, aucune sensibilité non plus, même si l’usager a le sentiment de tenir une « conversation », encore un mot du vocabulaire de l’humain.

Vue sur l’écran d’un smartphone et sur la page ChatGPT sur fond flou
La « boite noire » de l’IA générative fonctionne sur des principes plutôt simples. Shutterstock

Et cela peut être amusant, comme le montre l’IA BabyGPT créé par le New York Times, travaillant sur de petits corpus fermés, pour montrer comment écrire à la manière de Jane Austen, de William Shakespeare ou de J.K. Rowling. Même ChatGPT ne s’y laisse pas prendre : quand on lui demande ce qu’il ressent, il répond, très cash, qu’il n’est pas programmé pour cela.

Varier les outils

Les publics de l’IA, notamment à l’école, se doivent donc de développer des connaissances et compétences autour des risques et opportunités de ce genre de robot dit conversationnel. Outre la compréhension des mécanismes du traitement automatique de l’information et de la désinformation, d’autres précautions prêtent à éducation :

  • prendre garde au monopole de la requête en ligne, tel que visé par Bing Chat et Google Bard, en jouant de la concurrence entre elles, donc en utilisant régulièrement plusieurs moteurs de recherche ;

  • exiger des labels, des codes couleur et autres marqueurs pour indiquer qu’un document a été produit par une IA ou avec son aide est aussi frappé au coin du bon sens et certains médias l’ont déjà anticipé ;

  • demander que les producteurs fassent de la rétro-ingénierie pour produire des IA qui surveillent l’IA. Ce qui est déjà le cas avec GPTZero ;

  • entamer des poursuites judiciaires, en cas d’« hallucination » de ChatGPT- - encore un terme anthropomorphisé pour marquer une erreur du système !

  • Et se souvenir que, plus on utilise ChatGPT, sous sa version gratuite comme payante, plus on l’aide à s’améliorer.

Dans le domaine éducatif, les solutions marketing de la EdTech vantent les avantages de l’IA pour personnaliser les apprentissages, faciliter l’analyse de données, augmenter l’efficacité administrative… Mais ces métriques et statistiques ne sauraient en rien se substituer à la validation des compétences acquises et aux productions des jeunes.

Pour tout intelligente qu’elle prétende être, l’IA ne peut remplacer la nécessité pour les élèves de développer leur esprit critique et leur propre créativité, de se former et s’informer en maîtrisant leurs sources et ressources. Alors que la EdTech, notamment aux États-Unis, se précipite pour introduire l’IA dans les classes, d’école primaire au supérieur, la vigilance des enseignants et des décideurs reste primordiale pour préserver les missions centrales de l’école et de l’université. L’intelligence collective peut ainsi s’emparer de l’intelligence artificielle.

Want to write?

Write an article and join a growing community of more than 185,400 academics and researchers from 4,982 institutions.

Register now