Les réseaux sociaux peuvent-ils vraiment améliorer leurs modèles ?

Les opérateurs comme Facebook peuvent-ils réellement construire une relation de confiance avec les pouvoirs publics et la société civile? Mark Zuckeberg à l'Elysée, le 23 mai 2018. Alain JOCARD / AFP

Alors que le premier tour des élections municipales aura lieu le 15 mars, Facebook annonce son « plan » pour lutter contre la désinformation en période électorale. Le « nouveau modèle » présenté à Bruxelles le 17 février par Mark Zuckerberg sera-t-il suffisant ?

Et les réseaux sociaux ont-ils réellement tiré toutes les leçons du scandale Cambridge Analytica ?

Que prévoit le Code électoral ?

La loi de 2018 relative à la lutte contre la manipulation de l’information fait obligation aux opérateurs de plates-formes tels que Facebook, Google et Twitter de garantir une information éclairée aux citoyens en période électorale afin de préserver la sincérité du scrutin.

Sont concernés les opérateurs de plate-forme en ligne au sens de l’article L. 111-7 du code de la consommation dont l’activité dépasse cinq millions de visiteurs uniques par mois, par plate-forme, calculé sur la base de la dernière année civile.

Quant aux scrutins, il s’agit de : l’élection du Président de la République, les élections générales des députés, l’élection des sénateurs, l’élection des représentants au Parlement européen et les consultations référendaires.

Ce dispositif s’inscrit dans une logique de responsabilisation des opérateurs de plates-formes afin de construire une relation de confiance entre eux, les pouvoirs publics et la société civile. Cette préoccupation est également présente au niveau de l’Union européenne où elle repose sur des mécanismes d’autorégulation avec : la communication de la Commission européenne « lutter contre la désinformation en ligne : une approche européenne », le code de bonnes pratiques sur la désinformation et la communication conjointe établissant le plan d’action contre la désinformation de l’Union européenne.

Le code électoral (art. L163-1 s.) prévoit que pendant les trois mois précédant le premier jour du mois d’élections, ces opérateurs de plates-formes publient toute une série d’informations agrégées au sein d’un registre mis à la disposition du public par voie électronique, dans un format ouvert, et régulièrement mis à jour.

Ces informations concernent :

  • L’identité de celui qui verse à la plate-forme des rémunérations en contrepartie de la promotion de contenus d’information,

  • Le montant des rémunérations reçues en contrepartie de la promotion de tels contenus,

  • L’utilisation des données personnelles de l’utilisateur de la plate-forme dans le cadre de la promotion d’un contenu.

En cas de manquement, le candidat qui s’estime lésé, ou un parti politique peut saisir le juge afin de faire cesser la diffusion (retirer les posts litigieux, voire bloquer le site Internet).

Toutefois, à la lumière de la première application du référé, il s’avère que la loi a un champ d’application très limité. En mai 2019, deux élus communistes avaient demandé le retrait d’un tweet du ministre de l’Intérieur concernant la Pitié-Salpêtrière. Tout d’abord, l’exigence d’« allégations ou imputations inexactes ou trompeuses ».

Or, la jurisprudence est stricte : le Tribunal de Grande Instance (TGI) de Paris a ainsi refusé de faire supprimer un tweet du ministère de l’Intérieur, car les termes employés (« attaque » et « blessures ») bien qu’exagérés n’étaient ni inexacts ni trompeurs.

De plus, le juge a relevé que le ministre n’avait pas diffusé l’information « de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne » et, enfin, le risque de manipulation du scrutin n’était pas avéré dans ce cas précis d’autres supports ayant relayé l’événement sous différentes versions permettant aux électeurs de se faire une opinion éclairée.

L’objectif est de lutter contre les contenus sponsorisés et les systèmes robotisés, les « fermes à clics », qui véhiculent ces fausses informations et qui le feraient sciemment, en sachant que l’information est fausse.

« Fermes à clics » en Inde, France TV.

Quand il est saisi, le juge des référés doit apprécier, sous 48 heures, si ces fausses informations sont diffusées de manière artificielle ou automatisée et massive. Des sanctions pénales sont également prévues : 75 000 euros d’amende et un an d’emprisonnement (art.L112 du code électoral).

Mais en créant ce dispositif, le législateur rate sa cible puisque la personne agissant en référé et invoquant l’existence d’une fausse information devra rapporter la preuve du caractère faux de l’information en question.

En effet, il est particulièrement difficile de rapporter la preuve d’un fait négatif (absence de possession d’un compte off-shore ou autre). On peut légitimement s’interroger sur l’efficacité d’un dispositif strictement national : le Règlement général sur la protection des données (RGPD) n’a-t-il pas précisément pris en compte le caractère mondial des enjeux en permettant une protection extraterritoriale des données à caractère personnel ?

Le devoir de coopération des opérateurs

Ces acteurs doivent mettre en œuvre des mesures en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou d’altérer la sincérité de ces scrutins nationaux. Ils doivent avoir un représentant légal en France, rendre publics leurs algorithmes et lutter contre les comptes propageant massivement de fausses informations.

Chaque opérateur adresse chaque année au Conseil supérieur de l’audiovisuel une déclaration dans laquelle sont précisées les modalités de mise en œuvre de ces mesures et des moyens qu’il y consacre.

En particulier, pour les algorithmes de recommandation, il faut publier la part d’accès direct par l’internaute c’est-à-dire sans recours à un moteur de recherche ou plate-forme et aussi indiquer la part des accès via un moteur de recherche interne de la plate-forme donc par le biais d’algorithmes de recommandation, de classement ou de référencement.

Facebook a communiqué son plan de lutte contre la désinformation avec plusieurs mesures pour garantir la transparence de la publicité engagée, par exemple la publication d’annonces publicitaires à caractère politique dans sa bibliothèque. Mais cet outil que je vous invite à tester reste peu intuitif pour l’utilisateur.

Capture d’écran de la « bibliothèque » de Facebook. Facebook

Il est en réalité assez difficile de savoir si un post à visée électorale est financé et si oui par qui. Pourquoi ne pas tout simplement mentionner le montant de la rémunération et sa source ?

Des promesses qui n’engagent que ceux qui les écoutent

Alors que l’an dernier Twitter avait bloqué la campagne d’information appelant à votre aux élections européennes du Service d’information du gouvernement, Facebook incite aujourd’hui ses membres à participer au scrutin de même que Snapchat avec un filtre dédié. Les plates-formes doivent en revanche rattraper leur retard et mieux expliquer comment la suppression de logiciels robots et de faux comptes a permis de limiter la diffusion de la désinformation.

Le manque de moyens humains, techniques ou financiers n’étant pas crédible au regard des actions de marketing ciblé extrêmement efficaces opérées par ces mêmes acteurs, nous nous interrogeons sur la sincérité de la démarche de ces plates-formes. Énième tentative de remettre le dossier sur la table et de tempérer les exigences de l’État français ?

Les limites du cadre juridique actuel

On le voit bien aujourd’hui, le scrutin municipal n’est pas visé par le dispositif alors que les électeurs sont tout autant vulnérables à la diffusion de fausses informations. L’Eurobaromètre 2018 indique que 37 % des personnes interrogées s’estiment confrontées quotidiennement ou presque à des fake news.

En dehors des limites juridiques stricto sensu, la réalité de la menace ne réside pas dans les fake news ou dans le financement des publicités mais plutôt dans le développement d’outils de ciblage politique comparables à ceux existants pour le marketing ciblé. Le débat public peut donc largement être altéré via la collecte de données de tous ordres ensuite agrégées par l’intelligence artificielle.

Pourquoi ne pas aller encore plus loin et exiger des plates-formes qu’elles fournissent à la communauté des chercheurs un véritable accès aux données, dans le respect des règles de protection des données à caractère personnel ?

L’usage de salariés ou de robots pour influencer les informations en ligne est un autre enjeu qui n’est pas encore intégré par le mécanisme français.

Favoriser l’éducation aux médias et à l’information

Le législateur encourage les opérateurs à sensibiliser les utilisateurs à l’influence de leurs propres contenus et à contribuer à développer leur sens critique, particulièrement celui des plus jeunes. Les plus jeunes ne sont pas (encore) électeurs : ce sont précisément les plus de vingt ans qui profiteraient le plus de cette mesure. Or, ils n’ont bénéficié d’aucune éducation aux médias ou aux outils du numérique.

Apprendre à chercher une information et à en identifier la source sont des fondamentaux que toute personne doit acquérir. Bien que cette mission relève de la politique d’éducation aux médias inscrite dans la loi de refondation de l’École, les utilisateurs de plates-formes restent autant démunis que l’État face aux stratégies déployées pour orienter leurs comportements individuels.

Want to write?

Write an article and join a growing community of more than 99,900 academics and researchers from 3,201 institutions.

Register now