Menu Close

Les algorithmes façonnent notre politique : voici comment éviter d'être manipulé

Illustration de personnages à l'apparence humaine, dont 12 sont centrés dans un cercle rouge, portant tous la même chemise verte et le même pantalon sombre.
Bakhtiar Zein/Shutterstock

En 2016, des preuves ont commencé à s'accumuler selon lesquelles le président sud-africain de l'époque, Jacob Zuma, et une famille d'hommes d'affaires d'origine indienne, les Gupta, étaient responsables d'une “mainmise généralisée sur l'État”. La famille Gupta aurait influencé les nominations politiques de Zuma et bénéficié injustement d'appels d'offres lucratifs.

Les Gupta ont commencé à chercher un moyen de détourner l'attention. Ils ont fait appel à la société britannique de relations publiques Bell Pottinger, qui s'est appuyée sur les tensions raciales et économiques qui existent du pays pour mettre au point une campagne de réseaux sociaux médias sociaux centrée sur le rôle du “monopole du blanc sur le capital” dans la poursuite de “l'apartheid économique”.

La campagne a été menée grâce à la puissance des algorithmes. L'entreprise a créé plus de 100 faux bots Twitter ou comptes Twitter automatisés qui fonctionnent avec des logiciels de bots, c'est-à-dire des programmes informatiques conçus pour effectuer des tâches et des actions, allant des plus simples aux plus complexes. Dans ce cas, il s'agissait de simuler des réponses humaines pour liker et retweeter des tweets.

Cette militarisation des communications ne se limite pas à l'Afrique du Sud. Les exemples d'autres pays d'Afrique abondent, notamment la Russie qui cherche à s'attirer les faveurs au Burkina Faso via Facebook et les campagnes Twitter coordonnées par des factions représentant des politiciens kenyans rivaux. En mars 2023, des chercheurs ont identifié un réseau de milliers de faux comptes Twitter créés pour soutenir l'ancien président américain Donald Trump.

La juriste Antoinette Rouvroy appelle cela la gouvernementalité algorithmique. Il s'agit de la réduction du mode de gouvernement à des processus algorithmiques, comme si la société était un problème de grands ensembles de données plutôt que de la façon dont la vie collective est (ou devrait être) organisée et gérée par les individus dans cette société.

Dans un article récent, j'ai inventé le terme “algopopulisme” : la politique assistée par des algorithmes. Le contenu politique de nos flux personnels ne se contente pas de nous représenter le monde et la politique. Il crée de nouvelles réalités, parfois “alternatives”. Il modifie la manière dont nous rencontrons et comprenons la politique, voire la manière dont nous comprenons la réalité elle-même.

L'une des raisons pour lesquelles l'algopopulisme se propage si efficacement est qu'il est très difficile de savoir exactement comment nos perceptions sont façonnées. C'est délibéré. Les algorithmes sont conçus de manière sophistiquée pour surpasser le raisonnement humain.

Que peut-on donc faire pour éviter d'être “manipulé” par des processus algorithmiques ? Selon moi, la réponse réside dans une meilleure compréhension du changement numérique qui nous a conduits jusqu'ici et des idées d'un statisticien britannique, Thomas Bayes, qui a vécu il y a plus de 300 ans.

Comment le changement s'est produit

Cinq évolutions récentes dans l'espace technologique ont conduit à la gouvernementalité algorithmique : des améliorations considérables du matériel informatique; un stockage généreux et flexible via le cloud ; l'explosion des données et de leur accumulation ; le développement de réseaux très complexes et d'algorithmes sophistiqués pour trier les données extraites ; et le développement de réseaux rapides et bon marché pour transférer les données.

Ensemble, ces développements ont transformé la science des données en quelque chose de plus qu'un simple outil technologique. Elle est devenue une méthode d'utilisation des données non seulement pour prédire la façon dont vous vous engagez dans les médias numériques, mais aussi pour anticiper vos actions et vos pensées.

Il ne s'agit pas de dire que toutes les technologies numériques sont nuisibles. Je tiens plutôt à souligner l'un de ses plus grands risques : nous sommes tous susceptibles de voir nos pensées façonnées par des algorithmes, parfois d'une manière qui peut avoir des effets réels, comme lorsqu'ils affectent les élections démocratiques.

Les statistiques bayésiennes

C'est là qu'intervient Thomas Bayes. Bayes était un statisticien anglais ; les statistiques bayésiennes, le paradigme dominant de l'apprentissage automatique, portent son nom.

Avant Bayes, les processus informatiques reposaient sur les statistiques fréquentistes. La plupart des gens ont rencontré cette méthode d'une manière ou d'une autre, comme dans le cas de la probabilité qu'une pièce de monnaie tombe sur pile ou face. Cette approche part du principe que la pièce est juste et qu'elle n'a pas été manipulée. C'est ce qu'on appelle l'hypothèse nulle.

Les statistiques bayésiennes ne nécessitent pas d'hypothèse nulle ; elles modifient entièrement le type de questions posées sur les probabilités. Au lieu de supposer qu'une pièce de monnaie est juste et de mesurer la probabilité de pile ou face, elle nous demande plutôt de nous demander si le système de mesure des probabilités est juste. Au lieu de supposer la vérité d'une hypothèse nulle, l'inférence bayésienne commence par une mesure de la croyance subjective qu'elle met à jour au fur et à mesure que de nouvelles preuves – ou données – sont recueillies en temps réel.

Comment cela se passe-t-il avec les algorithmes ? Supposons que vous ayez entendu une rumeur selon laquelle la terre est plate et que vous fassiez une recherche sur Google pour trouver des articles qui confirment ce point de vue. Sur la base de cette recherche, la mesure de la croyance subjective avec laquelle les algorithmes doivent travailler est “le monde est plat”. Progressivement, les algorithmes vont modifier votre flux pour vous montrer des articles qui confirment cette croyance, à moins que vous n'ayez délibérément recherché des points de vue opposés.

En effet, les approches bayésiennes utilisent des propbabilités, des connaissances ou des croyances a priori comme point de départ. À moins que vous ne modifiiez vos probabilités a priori, l'algorithme continuera à vous fournir des preuves confirmant votre mesure initiale de croyance subjective.

Mais comment pouvez-vous savoir qu'il faut modifier vos a priori si vos a priori sont confirmés en permanence par les résultats de votre recherche ? C'est le dilemme de l'algopopulisme : Les probabilités bayésiennes permettent aux algorithmes de créer des bulles de filtrage sophistiquées qu'il est difficile d'écarter parce que tous les résultats de vos recherches sont basés sur vos recherches antérieures.

Il n'y a donc plus de version uniforme de la réalité présentée à une population spécifique, comme c'était le cas lorsque les informations télévisées étaient diffusées à tous les habitants d'un pays au même moment. Au lieu de cela, nous avons chacun une version de la réalité. Celle-ci recoupe en partie ce que les autres voient et entendent, et en partie ce qu'ils ne voient et n'entendent pas.

S'engager différemment en ligne

Comprendre cela peut changer votre façon de rechercher en ligne et d'accéder à la connaissance.

Pour éviter les bulles de filtre, recherchez toujours des points de vue opposés. Si vous ne l'avez pas fait dès le départ, effectuez une recherche dans un navigateur privé et comparez les résultats obtenus. Qui plus est, vérifiez votre implication personnelle. Quel avantage tirez-vous de l'adoption d'une position spécifique sur un sujet ? Par exemple, cela vous donne-t-il l'impression de faire partie de quelque chose de significatif parce que vous n'avez pas de liens sociaux dans la vie réelle ? Enfin, efforcez-vous de choisir des sources fiables. Soyez conscient de la partialité d'une source dès le départ et évitez les contenus publiés de manière anonyme.

De cette manière, nous pouvons tous être les gardiens de notre comportement individuel et collectif.

Want to write?

Write an article and join a growing community of more than 187,400 academics and researchers from 5,001 institutions.

Register now