Menu Close

Cross-check, le système critiqué que Meta (Facebook) tente de tourner à son avantage

Mark Zuckerberg dévoile le logo et le nouveau nom de la société Facebook, Meta. Los Angeles, 28 novembre 2021. Chris Delmas/AFP

Créé en 2013 selon les dires de Meta, le système appelé « cross-check » cherche à éviter que certains contenus publiés sur Facebook ne soient retirés de la plate-forme à cause d’un processus de modération qui aurait été mis en œuvre de façon excessivement rigoureuse. Il s’agirait, en somme, d’une forme de précaution additionnelle, ajoutée dans le but de réduire le plus possible les atteintes à l’exercice de la liberté d’expression sur la plus populaire des plates-formes de réseaux sociaux.

C’est en tous cas la façon dont Meta décrit ce mécanisme : présenté sous cet angle, il semble être une addition bienvenue à la complexe machinerie qui, en coulisses, fait fonctionner la plate-forme et s’efforce de répondre aux attentes souvent contradictoires d’une multitude d’acteurs.

Plusieurs traits de « cross-check » invitent cependant à une lecture plus critique de sa raison d’être et de son fonctionnement.

Un manque chronique de transparence

D’abord, Meta n’a publiquement communiqué au sujet de ce système qu’en 2018, non par volonté spontanée de transparence mais contrainte et forcée, en réaction à un documentaire de Channel 4, basé sur les révélations d’un reporter infiltré dans un centre de modération à Dublin.

Pressée de réagir après ces révélations, l’entreprise avait alors reconnu que la modération des contenus publiés par certains comptes était confiée à des équipes spéciales « pour s’assurer que (ses) politiques avaient été appliquées correctement ».

Jusqu’en août 2021, les explications de Meta sur le sujet se limitaient à signaler dans son Centre de Transparence que « ce processus, que nous appelons cross-check, signifie que nos équipes de révision évaluent ce contenu à plusieurs reprises ».

Les révélations en septembre dernier de la lanceuse d’alerte Frances Haugen, relayées par The Wall Street Journal puis reprises par le « Conseil de Surveillance » ont poussé Meta à fournir une description du système plus digne de ce nom.

Cependant, le flou demeure sur de nombreux points, comme l’identité des comptes qui bénéficient de ces précautions redoublées, les conditions précises d’éligibilité ou les volumes concernés. Alors que la compagnie n’a de cesse de souligner, à juste titre, que ses rapports trimestriels de transparence sont de plus en plus complets, cross-check n’y a toujours pas trouvé sa place.


Read more: Fermeture des comptes de Donald Trump : Facebook et sa « Cour suprême » en quête de légitimité


Dans son propre rapport de transparence, ce même Conseil de Surveillance a ouvertement reproché à Meta de ne pas avoir été franche dans ses échanges avec lui concernant ce mécanisme. Il souligne que ce manque de transparence a porté atteinte à sa capacité à prendre des décisions, notamment dans le cas de la fermeture du compte Facebook de l’ancien président des États-Unis Donald Trump.

Un traitement de faveur pour des comptes de premier plan ?

Ensuite, la logique qui sous-tend cross-check prête le flanc à au moins une objection de fond : dans sa mouture initiale, seuls certains comptes bénéficiaient de ce programme qui conditionne tout éventuel retrait de contenu à un examen minutieux en plusieurs étapes, tandis que le reste des comptes se voyaient soumis au processus classique, critiqué entre autres pour son caractère expéditif.

Quels étaient donc ces comptes faisant l’objet d’un traitement privilégié ? Là encore, le manque de transparence de Meta sème le trouble, car la compagnie ne fournit, à titre d’exemple, qu’une liste ouverte composée d’élus, journalistes, partenaires commerciaux significatifs et organisations de défense des droits de l’homme.

On peut aisément imaginer qu’il existe de nombreuses bonnes raisons pour traiter au moins certains de ces acteurs avec le plus de précautions possibles, spécialement quand la liberté de la presse ou la défense de droits de l’homme sont en jeu. Cross-check est sans aucun doute utile pour éviter de censurer des images violentes lorsque celles-ci permettent de dénoncer, par exemple, des violences policières ou plus généralement des agissements illégaux.

Mais il est tout aussi facile d’identifier des cas de figure pour lesquels un traitement de faveur serait clairement injustifié, comme une modération sur mesure guidée par des considérations économiques ou le désir d’éviter des réactions épidermiques de la part de groupes ou de personnalités politiques influents.

Dans ce cas de figure, ce système permettrait en pratique d’exempter certains comptes de l’application mécanique et objective des règles en vigueur. Une faculté certainement utile pour Meta qui a de façon répétée tenté de donner des gages contre les accusations de « biais anticonservateur » dont elle a souvent fait l’objet de la part de ceux qui s’en considèrent victimes.

Cette éventualité n’est pas que théorique : par exemple, certains hommes politiques républicains ont pu à plusieurs reprises dénoncer sur Facebook une prétendue « fraude massive » lors de l’élection présidentielle de 2020, et ce malgré les règles en vigueur sur la plate-forme en la matière.

Une manifestante pose avec une installation représentant Mark Zuckerberg surfant sur une vague d’argent
Manifestation devant le Parlement à Londres le 25 octobre 2021, alors que la lanceuse d’alerte, Frances Haugen, est sur le point de témoigner.

Meta se défend bien évidemment de ces suspicions, en soulignant que ses standards de la communauté s’appliquent également à tous. Cependant, force est de constater que, dans les faits, certains contenus sont aiguillés vers un centre de tri où ils sont manipulés avec bien plus de soin que le tout-venant. Sur ce point, le Conseil de Surveillance a lui-même souligné que « différents procédés peuvent conduire à des résultats concrets différents ».

Un programme centré exclusivement sur les faux positifs

La modération de contenus est une entreprise intrinsèquement périlleuse qu’il est impossible d’exécuter sans faux-pas : ni les ressources technologiques déployées, ni les moyens humains mobilisés ne sauraient éliminer totalement les cas de faux positifs (retraits indus) ou de faux négatifs (contenus attentatoires maintenus en ligne).

Présenté comme un moyen de réduire au maximum la marge d’erreur, cross-check se limite en fait à la chasse aux faux positifs. Cette conception restrictive du programme interpelle. Face à des cas difficiles, Meta est par défaut censée donner la priorité à la liberté d’expression (to err on the side of a greater expression).

L’application de ce principe produit nécessairement un certain nombre de faux négatifs, ce qui justifierait que le programme s’efforce également de détecter ces cas de figure. D’autant plus que la permanence en ligne de contenus qui violent les règles de la plate-forme est en elle-même source de risques à de nombreux niveaux, comme le contexte actuel le souligne de façon si insistante.

Cross-check : une évolution déjà entamée, une direction qui reste à définir

Une fois le programme connu et ses défauts pointés du doigt, Meta n’a pas ménagé ses efforts pour justifier la raison d’être de cross-check aux yeux du public et contrecarrer la désastreuse image d’une modération à deux vitesses.

Le changement de nom du programme relevait sans nul doute de cette logique : sa désignation initiale – « shielded review » – laissait clairement transparaître l’idée d’une protection spéciale concédée à certains utilisateurs. En comparaison, « cross-check » met davantage l’accent sur l’intention de détecter de possibles erreurs : puisqu’elle s’était retrouvée de facto dans l’obligation d’assumer l’existence officielle du programme, Meta se devait de corriger le tir en matière de communication.

De façon autrement plus substantielle, son fonctionnement a été revu, ou plutôt complété en 2020 avec l’introduction d’une « révision secondaire générale », ajoutée aux côtés du dispositif déjà existant, à présent désigné comme « révision secondaire de réponse rapide ».

Alors que ce dernier continue à fonctionner sur la base d’une liste préétablie (et évolutive) de comptes pour lesquels le processus de modération suit des règles particulières, le nouveau programme permet de soumettre virtuellement tout contenu à cross-check, du moment que celui-ci répond à une série de conditions basées sur des indicateurs objectifs… qui ne laissent pas totalement de côté les caractéristiques propres du compte sur lequel il a été publié. Cette initiative permet de « démocratiser » en quelque sorte l’accès au programme, mais préserve l’existence d’une caste d’utilisateurs qui en bénéficient par défaut, et qui restent désignés selon des critères obscurs.

En septembre 2021, Meta a soumis à son « Conseil de Surveillance » une demande de recommandations sur la manière de « continuer à améliorer son système cross-check », dans le sens d’une plus grande équité entre utilisateurs et d’une transparence accrue. Cette sollicitation, que le Conseil a acceptée, donnera à ce dernier l’occasion de formuler de nombreuses questions pour lesquelles il n’avait jusqu’alors pas obtenu de réponses satisfaisantes – ou pas de réponse du tout.

De la sorte, Meta tente de transformer un programme opaque aux intentions discutables en un facteur d’amélioration de son modèle de modération. Une amélioration qui sera superficielle ou substantielle en fonction du cas qui sera fait des recommandations du Conseil de Surveillance, que l’on peut anticiper ambitieuses et vastes, dans la lignée de ses précédentes prises de position.

Quels que soient les développements à venir autour de cross-check, une constante est de plus en plus claire : pour que Meta tente de faire évoluer ses procédures vers plus de transparence, de cohérence et de prise en compte de sa propre responsabilité, elle a besoin d’être soumise à des pressions diverses, provenant d’acteurs externes à elle-même.

Want to write?

Write an article and join a growing community of more than 182,400 academics and researchers from 4,942 institutions.

Register now