Menu Close

La modération des contenus est-elle compatible avec l’activité commerciale des réseaux sociaux ?

Applications sur un téléphone
Un pic à près de 200 millions d’engagements mensuels a récemment été enregistré pour des histoires de désinformation sur Facebook. Pxhere, CC BY-SA

De nouvelles formes de conflit, qui n’ont rien à voir avec la violence physique, se multiplient sur les plates-formes de partage de contenu en ligne : réseaux sociaux, sites de partage de vidéos, services de messagerie, etc. Un pic à près de 200 millions d’engagements mensuels a été enregistré pour des histoires de désinformation sur Facebook.

Les plates-formes numériques qui hébergent ces contenus sont généralement créées et administrées par des entreprises privées, telles que Facebook et Instagram, qui définissent ces environnements en ligne et tiennent compte de diverses considérations et contraintes économiques rarement évoquées dans les études sur la sécurité.

Les développeurs de ces plates-formes numériques font souvent le choix d’exploiter des « effets de réseau », phénomènes par lesquels la valeur d’un utilisateur est d’autant plus grande qu’il y a d’utilisateurs sur le réseau. Idéalement, une plate-forme doit présenter une grande quantité de contenus prêts-à-consommer par les utilisateurs, tout en les incitant à créer de nouveaux contenus que d’autres voudront consommer.

Malheureusement, les effets de réseau rendent ces plates-formes tout aussi attirantes pour les diffuseurs de fake news, qui savent s’y adapter. C’est la raison pour laquelle les plates-formes de partage de contenu doivent réussir à modérer efficacement leurs contenus (processus par lequel elles contrôlent et suppriment les contenus qui violent leurs conditions d’utilisation).

Or, comme nous avons pu le constater à l’occasion d’un travail de recherche récent, ces activités de modération sont souvent très chronophages et difficilement automatisables, car les algorithmes sur lesquels elles s’appuient restent imprécis.

Une position délicate

Le modèle économique des plates-formes numériques consiste généralement à développer la base d’utilisateurs afin de maximiser les effets de réseau. Les plates-formes doivent trouver le juste équilibre entre les utilisateurs, les créateurs de contenu et les annonceurs.

Chaque type d’utilisateur paie un prix différent : les personnes lambda utilisent les services gratuitement, celles qui produisent un contenu particulièrement intéressant peuvent être rémunérées, et enfin, celles qui tirent le plus grand profit de la plate-forme, c’est-à-dire les annonceurs, doivent payer. Outre la gestion des effets de réseau et de la tarification, les plates-formes numériques profitent d’économies d’échelle grâce au déploiement de logiciels qui facilitent le travail.

Mais en regardant de plus près, on constate que certains choix peuvent contribuer à transformer ces plates-formes en lieux de conflit. Par exemple, elles fournissent des outils qui augmentent les chances de rendre certains contenus « viraux », c’est-à-dire qu’ils atteignent une grande notoriété grâce aux partages et aux vues. Cet effet est facile à exploiter pour les militants qui défendent des programmes extrémistes et suscitent des réactions encore plus hostiles de la part des utilisateurs qui ne partagent pas leur avis.

Tout cela met les plates-formes de partage de contenu dans une position délicate : si la modération est insuffisante ou inefficace, cela peut avoir des conséquences négatives sur les utilisateurs et le grand public. À l’inverse, les modérateurs peuvent aussi être accusés de partialité lorsqu’ils choisissent ce qu’ils autorisent, suppriment, relèguent au second plan ou interdisent.


Read more: Podcast : Sur les réseaux sociaux aussi, « la mauvaise monnaie chasse la bonne »


S’ensuit un cercle vicieux : le manque de modération entraîne une polarisation des utilisateurs, laquelle conduit à ce que l’une ou l’autre des factions critique la modération, critiques qui à leur tour poussent la modération à s’abstenir de modérer, et ainsi de suite.

Légitimité et équité

Au regard de leur volume, les opérateurs ont du mal à modérer efficacement les contenus partagés sur les plates-formes numériques, alors que les acteurs malveillants sont capables d’adapter rapidement leurs stratégies et leurs tactiques, par exemple en coordonnant des activités non authentiques.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Les groupes politiques extrémistes dans les États démocratiques, comme les climatosceptiques, ou l’appareil d’État lui-même dans les États autoritaires sont des exemples de groupes qui constituent des menaces par la diffusion d’informations déformées. Au-delà des frontières, il arrive que les services de renseignement et de propagande de certains États se livrent à de telles activités à l’encontre d’autres États.

Parmi les cas récents de manipulation de l’information en ligne, citons les tentatives russes de déstabilisation des élections américaines de 2016, ou l’intox des « Macron leaks » lors des élections présidentielles françaises de 2017. Dans le contexte de la guerre entre la Russie et l’Ukraine, des informations sur l’existence présumée de laboratoires de production d’armes biologiques en Ukraine ont été diffusées sur les réseaux sociaux par des organisations secrètes qui seraient russes et chinoises. Des campagnes anti-vaccination ont également été menées depuis le début de la pandémie de Covid-19.


Read more: Fake news, résultats peu fiables… Comment distinguer « bonne » et « mauvaise » recherche biomédicale ?


Réduction des coûts

La modération des contenus doit donc s’inscrire dans le modèle économique des plates-formes. Aujourd’hui, elles consacrent une très grande partie de leur personnel à la modération des contenus, mais il n’est pas certain que cette activité puisse être maintenue, compte tenu de leurs revenus actuels.

Les difficultés financières chroniques de Twitter illustrent la difficulté, pour une plate-forme de petite taille, à rester rentable tout en assurant une modération appropriée. La nouvelle stratégie de gestion d’Elon Musk semble miser sur une réduction drastique de tous les coûts, y compris de modération, avec l’espoir que les revenus ne chutent pas trop du fait du départ d’annonceurs qui ne veulent pas être associés à une plate-forme sans modération. Reste à voir si cela est possible.


Read more: Le rachat par Elon Musk risque d’aggraver le problème de désinformation de Twitter


Lorsqu’une plate-forme décide de se lancer dans des activités de modération, l’élaboration de procédures en la matière peut être assez décourageante. D’abord, il faut trouver un consensus sur le traitement des contenus politiques ou idéologiques. Les orientations et les critères doivent être étayés par une légitimité claire et établie.

Le « comment » plus que le « quoi »

À cet égard, des règles, instituées par un processus démocratique, peuvent s’avérer très utiles. Avec l’entrée en vigueur de la législation européenne sur les services numériques (règlement DSA), les dirigeants de l’Union européenne seront d’ailleurs autorisés à imposer un niveau minimum de modération.

Pour être légitime, un cadre doit être porté par un processus démocratique. Le règlement DSA porte essentiellement sur les moyens de modération que les plates-formes doivent mettre en œuvre ou dans lesquels elles doivent investir, c’est-à-dire sur le « comment » plutôt que sur le « quoi » modérer, en partant du principe qu’il sera plus facile de s’entendre sur le premier point que sur le second.

L’objectif du règlement DSA est de garantir un niveau minimum de modération sur toutes les plates-formes, ce qui pourrait tourner à l’avantage des plus grandes, seules susceptibles de rester rentables tout en assurant la modération requise. On pourrait alors assister à une plus forte concentration au sommet, avec de nouvelles plates-formes qui restent petites et suivent des modèles dans lesquels la modération est soit inutile, soit impossible, afin d’éviter les coûts y afférents.

Want to write?

Write an article and join a growing community of more than 182,600 academics and researchers from 4,945 institutions.

Register now