Menu Close
Visage abstrait de l'Intelligence Artificielle créé par un système d'apprentissage machine réseau neuronal, alimenté par des données volumineuses, icône moderne, fond d'illustration 3d DeepFake Virtual Assistant. Shutterstock

Infocalypse : la propagation des hypertrucages menace la société

Nous assistons à l’émergence d’une nouvelle génération de désinformation qui chamboule nos repères.

En effet, l’inquiétude provoquée par la popularité croissante des deepfakes, ou hypertrucages malveillants, ont amené l’auteure et conseillère spécialisée en médias synthétiques, Nina Schick, à annoncer l’imminence d’une infocalypse.

Les hypertrucages sont des enregistrements audio et vidéo de personnes réelles prononçant et exécutant des choses qu’elles n’ont jamais dites ou faites, créés à l’aide des algorithmes d’apprentissage automatique.

Par exemple, le Dalí Museum a réussi l’exploit de faire revivre synthétiquement Salvador Dalí pour qu’il puisse accueillir les visiteurs lors de son exposition et prendre un selfie, ou égoportrait, avec eux.

Mais aussi, une femme a utilisé cette même technologie pour créer de fausses vidéos des pom-pom girls rivales de sa fille afin de les discréditer.

Le véritable problème des hypertrucages malveillants, ou deepfakes, réside donc dans l’utilisation non éthique de la technologie, qui devient de plus en plus sophistiquée et accessible. Elle permet aux individus et organisations mal intentionnés de créer et diffuser des tromperies, alors que notre société n’est pas équipée pour distinguer le vrai du faux, encore moins pour agir avec discernement contre ce phénomène.


Read more: L'hypertrucage: une grave menace pour notre sécurité et la démocratie


Notre équipe de chercheurs et d’étudiants en éducation, en technologie éducative et en design de l’Université Laval et de l’Université Concordia a été subventionnée par une initiative conjointe entre Patrimoine canadien et le Conseil de recherches en sciences humaines (CRSH) pour explorer l’agentivité collective numérique comme compétence essentielle pour aider à contrecarrer les deepfakes.

L’agentivité humaine, telle que définie par le chercheur en psychologie Albert Bandura, est notre capacité d’influencer le cours des événements et notre environnement par nos actions. Ceci implique l’intentionnalité, la capacité de se projeter dans le futur, l’autoréactivité et l’autoréflexivité. Appliquée au numérique, cette compétence implique le passage de l’observation passive des partages de deepfakes sur les réseaux sociaux à l’adoption active de stratégies en ligne pour dénoncer ces tromperies et les contrer par des faits.

La mutation de la désinformation

À la suite d’une rencontre d’échange avec des invités experts en recherche, en journalisme et en médias sociaux pour discuter des solutions pour « aplatir » la courbe de la désinformation, amplifiée par la crise sanitaire », le Scientifique en chef du Québec, Rémi Quirion, sort avec un constat : il y a grande urgence pour la formation à la désinformation dès l’école primaire.

Parallèlement, durant le webinaire « Faites vos recherches, l’économie cognitive de la désinformation », Sébastien Tremblay, chercheur en sciences cognitives à l’Université Laval, mettait de l’avant le rôle de la formation de l’humain à la pensée critique à l’égard du numérique.

Cette compétence est aussi citée par le cadre de référence de la compétence numérique. Issu du plan d’action numérique en éducation et en enseignement supérieur par le ministère de l’Éducation et de l’Enseignement supérieur, ce cadre définit les compétences numériques, et propose des stratégies pour bien les intégrer dans l’offre de formation.

Manifestement, trouver des solutions à la désinformation au-delà des interventions proposées par les géants d’internet, comme désactiver de faux comptes et retirer de contenus trompeurs, est primordial et vital pour l’humanité.

La désinformation fait dérailler les conversations et empêche les gens de se mobiliser sur des enjeux particuliers. Elle permet aux théories du complot de s’installer dans l’esprit des individus vulnérables. Comme le démontre l’exemple du Pizzagate, les mythes générés par les campagnes de désinformations persistent même après leurs démystifications.

L’infodémie qui a cours lors de la crise sanitaire s’est avérée incontrôlable.


Read more: L'infodémie sur la Covid-19 est un fléau : cinq conseils pour éviter de la propager


La gravité de la situation ainsi que l’importance d’agir rapidement et collectivement face à cette menace vient actuellement se heurter à des mouvements anti-vaccin qui, par la diffusion d’informations trompeuses, mettent en péril la santé de la population. Eve Dubé, chercheuse à l’Institut national de santé publique du Québec et au Centre de recherche du CHU de Québec, affirme que « la pandémie a fourni une occasion de rapprochement entre les conspirationnistes et les antivaccins ».

Toutefois, si la désinformation ne date pas d’hier, en quoi l’apparition des hypertrucages a-t-elle lieu de nous inquiéter ?

Comme le mentionne Giorgio Patrini, CEO et Scientifique en chef chez Deeptrace, la montée en puissance de ce phénomène nous oblige désormais à douter en la véracité de tout contenu audiovisuel. Les dénégations deviennent de plus en plus crédibles et le dividende du menteur plus puissant. Toute personne peut facilement remettre en question des faits irréfutables.

En plus, les vidéos sont particulièrement efficaces pour déclencher des réactions émotionnelles car nous considérons généralement la vidéo comme une preuve irréfutable de véracité.

Des solutions pour contrer les deepfakes

Ashish Jaiman, directeur des opérations technologiques chez Microsoft, explique que les quatre grandes catégories d’interventions pour contrer les deepfakes malveillants peuvent se résumer aux réglementations et aux actions législatives, aux politiques et à la gouvernance des plates-formes, aux outils technologiques et à l’éducation aux médias.

Or, bien que des débats concernant les meilleures solutions à adopter puissent avoir cours en ce moment, l’éducation a l’avantage de se pencher sur le problème à sa source. Tom van de Weghe, chercheur en deepfake à l’université Standford, discute du besoin de renforcer la résilience de notre société, de l’inoculer pour qu’elle aie un meilleur radar pour les deepfakes.

En ce sens, plusieurs campagnes de sensibilisations ont recours à des personnalités bien connues, comme l’acteur Tom Cruise, afin d’avertir le grand public quant aux risques associés aux utilisations malveillantes des médias synthétiques.

Comme exemples d’initiatives pour dénoncer les deepfakes, en 2018, Jordan Peel, acteur et fondateur de Monkeypaw Productions, publie le deepfake du président Obama, une des premières vidéos de sensibilisation avec des millions de visionnements. Plus récemment le mouvement citoyen On Est Prêt publie un deepfake du président Macron appelant pour une « vraie loi climat ». L’équipe de Channel 4 fait danser la reine d’Angleterre, Élisabeth II, sur une table lors d’une fausse allocution de Noël 2021.

Le deepfake de la reine d’Angleterre, réalisé par Channel 4.

Sachant qu’un nombre important de personnes s’abreuvent d’informations à partir de la chaine YouTube, plusieurs initiatives de formation voient le jour.

Ainsi, à travers l’usage d’un robot conversationnel, Alexis De Lancer, animateur de l’émission Les Décrypteurs, à Radio-Canada, initie les visiteurs aux hypertrucages. L’agence de presse Reuters offre une formation disponible en ligne en 16 langues sur les contenus médiatiques manipulés.

L’agentivité collective numérique

Toutefois, malgré que ces initiatives contribuent à sensibiliser la population, les défis qu’impliquent les deepfakes sont gigantesques. La solution miracle n’existe pas et nous avons besoin que tous les acteurs se mobilisent afin d’enrayer le problème.

Une fois que nous identifierons les facteurs qui mènent à la vulnérabilité des individus face à la désinformation, nous pourrons mieux intervenir.

D’ici là, équiper les citoyens pour non seulement se protéger eux-mêmes, mais aussi utiliser leurs compétences numériques pour agir et protéger leur famille, leur entourage, leur communauté et notre société au sein des environnements numériques devient une nécessité.

Les deepfakes, ou ses variantes de la désinformation, deviennent rapidement viraux et envahissants, et par le fait même presque impossibles à détecter. Comme société, il est grand temps de passer de la réaction à la prise de pouvoir par des actions numériques collectives.

Want to write?

Write an article and join a growing community of more than 182,300 academics and researchers from 4,942 institutions.

Register now