Christchurch.0 : quel espoir pour l’Internet de demain ?

La première ministre néozélandaise Jacinda Ardern 72 heures après les attaques meurtrières dans deux mosquées de Christchurch. Appaloosa/Flickr, CC BY-NC-ND

Le 15 mars 2019, Brenton Tarrant, connu pour son extrémisme de droite, attaquait deux mosquées dans la ville de Christchurch, en Nouvelle-Zélande, pendant la prière du vendredi. Un bilan tragique : 51 morts et de 49 blessés.

Si l’ampleur de cet acte a soulevé une vague de choc dans ce pays, considéré comme le second plus sûr au monde, un deuxième traumatisme arrivait avec la diffusion en « live », sur Facebook, de l’agression meurtrière.

17 minutes d’images, avant que leur émission ne soit interrompue. Alors que l’hébergeur affirma avoir rapidement supprimé les comptes Facebook et Instagram du meurtrier après l’avertissement lancé par la police néo-zélandaise, Facebook déclarait avoir supprimé un total de 1,5 million de vidéos de l’attaque en 24 heures, dont 1,2 million bloquées au téléchargement.

Le script : l’ appel de Christchurch et Paris

La problématique des plates-formes d’intermédiation dans la diffusion de contenus haineux a déjà été soulignée à plusieurs reprises. En France, le président Macron a annoncé la mise en œuvre d’une loi contre les contenus haineux en ligne, en février 2019, lors du dîner au Conseil représentatif des institutions juives (CRIF). Le 11 mars 2018, la députée Laetitia Avia (LREM), en coopération avec l’écrivain Karim Amellal et le vice-président du CRIF Gil Taieb, a fait suivre à cette déclaration une proposition de loi devant l’Assemblée nationale.

Mais c’est aujourd’hui « l’appel de Christchurch » pour lutter contre le terrorisme et l’extrémisme violent en ligne qui a résonné dans tous les médias. L’initiative lancée par la première ministre néo-zélandaise Jacinda Ardern et par le Président français Macron à Paris le 15 mai 2019 vise à construire un front globalisé contre la haine et l’incitation à la violence sur Internet.

La première ministre néo-zélandaise Jacinda Ardern avec le président français Emmanuel Macron au Palais de L’Élysée lors du lancement de « l’appel de Christchurch » pour lutter contre l’extrémisme en ligne. 15 mai 2019. Thomas Samson/AFP

Le sommet survient après un autre appel, celui de Paris, lancé le 12 novembre 2018, lors de la réunion du Forum de gouvernance de l’Internet (FGI) à l’Unesco. Il s’agit d’une incitation à rétablir la confiance et la sécurité dans le cyberespace.

Bien que ces appels – preuves d’une volonté politique forte – soient indispensables et vertueux, il faut s’interroger sur leur capacité à être mis en œuvre, à devenir universels et sur leur efficacité. Seules la coopération des plates-formes et l’implication des internautes assureront l’efficacité recherchée, le tout sous l’égide d’États qui devront faire respecter leurs décisions par les géants du numérique, sans aller trop loin dans l’étendue des contrôles mis en place.

L’acteur 1 : la volonté politique

La volonté politique est un préalable à toute lutte contre les contenus haineux et les incitations à la violence en ligne. À ce titre, l’appel de Christchurch, qui ne vise aucun mouvement terroriste en particulier, est emblématique. Ce texte est rédigé de façon à pouvoir être adopté par le plus grand nombre d’acteurs, qu’ils soient publics ou privés. Cependant, il reste assez généraliste et ne propose pas de mesures concrètes, se bornant à renvoyer à des discussions ultérieures, notamment lors des G7 et G20, pour l’adoption de décisions effectives.

D’où les premiers écueils : la concrétisation de tels appels impliquent qu’ils soient adoptés par tous ou, a minima, par une large majorité. En cas de contravention, cela empêcherait les États de se retrancher derrière des juridictions différentes ou plus favorables. De fait, immédiatement après l’appel de Christchurch, l’Australie, le Canada, la Commission européenne, la France, l’Allemagne, l’Indonésie, l’Inde, l’Irlande, l’Italie, le Japon, la Jordanie, les Pays-Bas, ont adopté le texte, alors que les États-Unis annonçaient qu’ils ne le ratifieraient pas. La Maison Blanche indiquait, néanmoins, qu’elle continuerait d’appuyer les objectifs généraux présentés dans cet appel en déclarant :

« Nous encourageons les entreprises technologiques à appliquer leurs conditions de service et leurs normes communautaires interdisant l’utilisation de leurs plates-formes à des fins terroristes. Nous continuons d’être proactifs dans nos efforts pour lutter contre le contenu terroriste en ligne, tout en continuant de respecter la liberté d’expression et la liberté de la presse. »

Le figurant : la Maison Blanche

Sous couvert notamment du respect de la liberté d’expression, visée par le premier amendement, l’un des principaux acteurs sur la scène internationale s’est désolidarisé de l’appel. Déjà, certains analystes pointent du doigt que l’attachement à la liberté d’expression, mis en avant par l’administration de Trump, permet à de nombreux républicains de publier des tweets qui seraient probablement interdits sous d’autres juridictions.

Garantir la liberté d’expression, un défi majeur pour l’Internet de demain. Christian Wiediger/Unsplash, CC BY

Néanmoins, la distance prise par les États-Unis fragilise le texte et peut avoir des conséquences désastreuses. Déjà, certains médias dont Russia Today (RT), ont rebondi sur cette prise de position, expliquant que le président américain avait probablement sauvé la liberté d’expression, et accusant en filigrane les États signataires de vouloir porter atteinte (voir annihiler) la liberté d’expression.

Des risques de revers

Tout d’abord, il apparaît que les petites plates-formes n’ont pas été associées aux travaux préparatoires. Si cette omission résulte davantage de l’urgence que d’une volonté d’exclusion, les conséquences pourraient néanmoins être les mêmes. Concrètement, ces dernières pourraient se trouver dans l’impossibilité pour de s’aligner sur les prérequis exigés.

De plus, des divergences de régulation entre les États peuvent conduire à de différents Internet ou, plus exactement, à un accès différencié aux contenus et à l’information. Selon leur pays d’origine, les internautes pourraient ainsi ne pas accéder aux mêmes contenus et services que ceux du pays voisin, comme le fait remarquer l’Internet Society.

Enfin, des régulations trop différenciées fragmenteraient l’Internet : une menace à la coexistence de la lutte contre la haine avec le maintien du droit à l’information.

L’acteur 2 : Internet

Avant même l’appel de Christchurch et en réponse à l’horreur suscitée par la diffusion en « live » de la tuerie, Facebook annonçait réduire la possibilité de diffuser des vidéos en direct sur sa plate-forme. Toute personne ne respectant pas la politique de diffusion du réseau social serait ainsi impactée par cette restriction. La sanction serait alors une interdiction d’utilisation du service « live » pour une durée de 30 jours.

La société de Zuckerberg annonçait également vouloir limiter les copies des vidéos violentes, un autre aspect du problème. Ce qui est le cas pour la vidéo de Tarrant : même si la vidéo a été retirée, elle a pu être téléchargée avant sa suppression, et peut continuer ainsi à circuler.

La ville de Christchurch en Nouvelle-Zélandeembedgooglemap.net



Facebook n’est cependant pas la seule société inquiétée dans la diffusion de contenus haineux ou terroristes. Suite à l’appel de Christchurch, Amazon, Google, Microsoft, Twitter et ainsi que le moteur de recherche français Qwant ont diffusé un communiqué ans lequel ils s’engagent à des actions à la fois collaboratives et individuelles. Outre la limitation des « livestreams », ils prônent un partage de données relatives aux contenus délictueux et le développement de technologies facilitant leur détection.

Les biais de la détection

Cependant, le manque de transparence et le modus operandi de ces algorithmes sont un point sensible. Les réactions, observées face aux contenus à forte charge émotionnelle, et le fonctionnement des algorithmes visant à produire le plus de flux possible, expliquent notamment que des sujets ou vidéos violentes puissent rapidement devenir des sujets « tendance ». Il suffit qu’elles aient été vues ou suffisamment partagées dans un temps assez court pour que les algorithmes prennent le relais des internautes et assurent une diffusion plus large encore.

Autre point délicat, les failles dans les systèmes de modération. Facebook assure que les contenus terroristes sont détectés à 99 % par ses services et que 50 % d’entre eux sont supprimés sous deux minutes.

Mais les algorithmes détectent-ils tout ?

Même avec le secours d’une intelligence artificielle éduquée, le problème reste épineux. Cette éducation se fait sur la base de l’analyse de données massives permettant de distinguer ce qui peut être diffusé de ce qui doit être restreint.

À titre d’exemple : alors que les décapitations sont relativement simples à définir, la question se complexifie lorsque l’on aborde le sujet des armes à feu. Pour un système il est difficile de différencier un film de guerre d’une vidéo faisant l’apologie d’une tuerie. En outre, dans le cas de Christchurch, des trolls ainsi que des effets graphiques et des filtres pour modifier l’image ont trompé ce système de contrôle.

« Facebook assure que les contenus terroristes sont détectés à 99 % par ses services » Glen Carrie/Unsplash, CC BY

L’option alternative est de recourir à un contrôle humain. Mais, dans le cas de YouTube par exemple, il faut environ 70 000 emplois à plein temps pour visionner les quelques 430 000 heures de vidéos posées quotidiennement sur la plate-forme. Un effort financier et humain impensable pour les petites plates-formes.

Malheureusement, ce constat n’a pas échappé à de nombreux sites terroristes qui désormais évitent les grandes plates-formes.

L’acteur 3 : L’opinion publique et les internautes

L’opinion publique est le troisième acteur sur cette scène délicate.

Les internautes participaient massivement aux signalements de contenus haineux, violents ou à caractère terroriste, même si dans le cas de Christchurch aucun internaute n’a signalisé le livestream.

Cette incohérence révèle, d’un côté, la volonté de l’opinion publique d’une mise en place rapide de contrôles des contenus circulant sur Internet, alors qu’une autre partie de la population, confrontée à ces contenus, n’agit pas quand elle pourrait le faire. Pourquoi cette inhibition ?

L’absence de signalement lors de la diffusion de la tuerie en Nouvelle-Zélande est cohérente avec la banalisation de la violence : la présence de plus en plus fréquente de contenus violents et radicaux tend à les rendre plus acceptables en inhibant la capacité de réaction.

Même si une partie de l’opinion publique plaide pur plus de contrôle sur Internet, aucun internaute a signalisé le livestream des attaques de Christchurch. Une incohérence liée à la banalisation du mal. NeONBRAND/Unsplash, CC BY

Néanmoins, le poids des internautes est sous-estimé. S’ils commencent à éviter les plates-formes diffusant des contenus haineux, ce serait l’équilibre économique des entreprises qui serait alors en jeu. Toutes les structures auraient intérêt à intégrer la volonté des internautes dès leur conception, intégrant des procédures de modération efficaces.

Ainsi, si l’appel de Christchurch marque une nécessaire prise de conscience des États et des entreprises, il semble ignorer un certain nombre de problèmes structurels. Sa mise en œuvre est loin d’avoir trouvé une voie entre liberté d’expression et risque de censure, entre business model et protection du public, mais aussi entre raison et appétence malsaine pour le paroxystique.

Le texte complet de l’appel de Christchurch :

L’Appel de Christchurch pour agir contre le terrorisme et l’extrémisme violent en ligne

« Mesdames et Messieurs, bienvenue à vous. Madame la Première ministre, chère Jacinda, La Première ministre de Nouvelle-Zélande, Madame Jacinda Ardern, et moi-même venons de co-présider la réunion de l’appel de Christchurch pour l’élimination du terrorisme et de l’extrémisme violent en ligne. »