Menu Close

Conversation avec Asma Mhalla : « Les services des GAFAM sont devenus une commodité indispensable »

Sans les services proposés par les géants du numérique, le confinement n’aurait sans doute pas été possible aussi longtemps. Justin Tallis / AFP

Invitée aux Tribunes de la presse 2021 à Bordeaux, Asma Mhalla, spécialiste de l’économie numérique et maîtresse de conférences à Sciences Po Paris, a expliqué les enjeux de la régulation des géants de l’économie numérique par des États qui perdent progressivement leur rôle social et économique dans la société.


Les bénéfices des GAFAM (Google, Apple, Facebook, Amazon, Microsoft) explosent depuis le début de la crise sanitaire. Comment la pandémie a-t-elle renforcé l’influence de ces méta-plates-formes, qui agrègent de multiples services numériques de notre quotidien ?

Asma Mhalla : Sans ces outils numériques, le confinement n’aurait sans doute pas été possible aussi longtemps. Ces plates-formes ont été un sas de décompression. La crise sanitaire a consolidé leur position en captation d’usage et donc en accoutumance, d’autant plus que leur public s’est élargi.

Nous vivons dans des sociétés ultra-individualistes et individualisées, où l’ensemble des insécurités économiques et sociales pèsent sur l’individu pendant que les solidarités collectives s’affaiblissent. Dans cette solitude quasiment existentielle, les réseaux sociaux créent certes du lien, mais du lien très précaire. À travers une narration de soi souvent fantasmée, ils nourrissent des égos affaiblis par un système idéologique insécurisant. Ce sont dans ces failles psychologiques que les réseaux sociaux s’immiscent pour capter durablement l’attention, et donc l’engagement, des utilisateurs.

Depuis la crise sanitaire, ils sont devenus indispensables. Pour garder une illusion de lien social, on consent à dévoiler nos données. Tristan Harris, ex-designer chez Google, explique très bien comment les interfaces sont pensées pour créer des mécanismes d’addiction comme au casino par exemple, pour que l’on y passe un maximum de temps.

C’est ce que l’on appelle la captologie : sur ces interfaces s’agrègent les algorithmes de recommandation qui mettent en place les dispositifs de l’économie de l’attention et de la viralité. Avec à la clé, ce qu’il qualifie de « human downgrading » (déclassement humain) face à la machine.

Tristan Harris décrit les conséquences de la dépendance aux smartphones (en anglais).

Vous évoquez une alchimie entre des États, qui assumeraient un rôle plus sécuritaire, voire punitif, et des méta-plates-formes qui joueraient un rôle plus social et économique. Ne s’agit-il pas davantage d’une confrontation ?

A.M. : Il s’agit d’une relation ambiguë, inscrite à la fois dans la confrontation et dans la continuité. Les nations et les méta-plates-formes ont des liens consanguins et complexes. Dans les années 1960, l’État est un État social fort. À partir des années 1980, il devient libéral et se replie sur ses compétences régaliennes. C’est ce qui explique, entre autres, une forme de gouvernance par la peur accompagnée d’une rhétorique sécuritaire.

Les big tech offrent des infrastructures informationnelles puissantes et massives. Sur les réseaux sociaux, on s’expose, on laisse derrière nous nos traces numériques. Contrairement à ce qu’on lit ici et là, ce n’est de mon point de vue ni Orwell ni Huxley. Les plates-formes captent les données personnelles parce que nous les livrons de façon volontaire et compulsive. Le pouvoir coercitif de l’État s’alimente de ces infrastructures virtuelles, a priori ludiques ou informatives, afin de mettre en place des dispositifs de surveillance de la population.

Cette dynamique a commencé juste après le 11 Septembre. La NSA (National Security Agency) d’une part, et la DARPA (Agence d’innovation de l’État fédéral américain) d’autre part, avaient alors lancé le concept de total information awareness : les méta-plates-formes deviennent un service de captation de data contre « l’axe du Mal ». Cette tendance de fond s’est quelques années plus tard durablement installée en France à la suite des attentats de 2015.

Puis, en 2018, au Forum de la gouvernance internationale d’Internet à Versailles, Emmanuel Macron prononçait un discours qui m’avait profondément étonnée. Il avait lancé le concept de « co-régulation », comme si les plates-formes et l’État devaient désormais réguler le cyberespace de concert. Pourtant, l’État est l’autorité de régulation supérieure au marché. La doctrine a donc été modifiée de façon subreptice. Ce signal politique et symbolique important a été très peu relevé en France, mais entérine le fait que l’État s’allie aux GAFAM sur les questions de surveillance, et essaie dans le même temps de s’en détacher dans une velléité de maintien de son pouvoir suprême. Il veut encore garder sa position de méta-régulateur sur des entités qui ont désormais une puissance et une capacité de frappe politique gigantesque, et pourraient avoir des ambitions politiques qui dépassent le simple profit marchand.

L’Union européenne tente notamment de réguler plus strictement ces plates-formes. Parmi les textes en discussion, le règlement relatif à un marché intérieur des services numériques, ou Digital Services Act (DSA), vise à mieux protéger l’utilisateur. Sera-t-il utile ?

A.M. : Disons qu’il est prometteur. L’objectif du DSA est d’exiger des plates-formes un compte-rendu sur les moyens mis en œuvre pour la modération, d’avoir un référent dans chaque pays, d’infléchir le design des plates-formes en redonnant une place aux utilisateurs, par exemple dans le choix des critères de sélection dans l’algorithme de recommandation et de signalement des contenus réputés illicites.

De ce point de vue, Thierry Breton, commissaire européen au marché intérieur, a envoyé un signal politique fort en présentant ce projet de régulation fin 2020. Cette question n’était en effet jusque-là pas du tout préemptée par le politique, ou très mal abordée.

Ce texte apporte des débuts de réponse à certaines questions juridiques et technologiques mais n’attaque pas encore le cœur du sujet, à savoir le modèle économique des big tech. Il tente d’endiguer les symptômes mais n’interroge pas les causes. Or, le modèle économique de ces plates-formes est le point nodal et problématique, car les réseaux sociaux ont privatisé un espace public numérique, des infrastructures sociales essentielles à la vitalité démocratique.

Aujourd’hui, celles qui concentrent l’ensemble de nos usages sont des entreprises de droit américain. Elles ont le statut d’hébergeurs, et non d’éditeurs. Elles n’ont pas une responsabilité sur le contenu mais simplement sur les modalités de distribution de la parole. Par ailleurs, le régulateur aurait pu d’emblée interdire le micro-ciblage politique qui atomise le discours politique.

Enfin, il y a aussi de véritables interrogations concernant les capacités opérationnelles de mise en œuvre du texte une fois qu’il sera adopté. Il faut les moyens financiers, humains, et ce n’est pas dit que l’on réussisse à mettre en œuvre ce premier pas compte tenu du contexte économique.

Pourtant, Frances Haugen, ancienne employée de Facebook, a divulgué début octobre 2021 des milliers de documents selon lesquels l’entreprise privilégierait le profit au détriment de la modération des contenus haineux ou diffusant des fausses informations…

A.M. : Entendons-nous, les big tech n’ont aujourd’hui pas le pouvoir de la norme et de la règle du droit qui reste l’apanage de l’État. Par ailleurs, il y a ce qu’ils peuvent faire et ce qu’ils ne peuvent pas légalement faire. À date, ils ne peuvent matériellement pas modérer une volumétrie aussi gigantesque dans le monde de données. Ce n’est d’ailleurs pas souhaitable, nous aurions un risque de censure trop grave en industrialisant algorithmiquement la modération des contenus : les algorithmes ne sont pas aussi fiables que l’on veut bien le faire croire.

Et puis, Facebook ne peut pas mettre un modérateur humain derrière chaque utilisateur. Se pose donc à nouveau la question du statut juridique. On pourrait envisager des statuts mixtes publics/privés, où l’État et la société civile auraient un droit de regard sur la façon dont les plates-formes en général et les algorithmes en particulier sont conçus. Ce, dans un but d’intérêt général. Nous avons récemment comparé la nocivité de Facebook à l’industrie du tabac, nous pourrions infléchir le modèle de gouvernance des big tech au même titre que des infrastructures essentielles comme les routes, les ports, etc.

Facebook : la lanceuse d’alerte Frances Haugen témoigne au Congrès américain (BFMTV, 6 octobre 2021).

Vous évoquez souvent le contrat social de Hobbes, qui transfère les pouvoirs au souverain en échange de la garantie d’une stabilisation sociale. Vous l’appliquez au contexte actuel selon le schéma suivant : liberté et sécurité contre vie privée. Un État qui a accès aux données personnelles de ses citoyens est-il forcément plus sûr ?

A.M. : Il s’agit de la croyance de l’État, mais ce n’est pas vrai. Chaque époque s’accompagne de son propre « régime de vérité », comme le décrit parfaitement Michel Foucault. Le monde numérique a donc aussi son propre régime de vérité : le big data et les algorithmes donnent la vérité.

L’État a mis en place des dispositifs particulièrement invasifs de surveillance et de captation massive de nos données personnelles autour d’un contrat social particulièrement affaibli. Mais vos données personnelles définissent votre identité propre et unique, ce que vous êtes, votre intimité, vos libertés fondamentales. Au-delà d’une intrusion dans votre vie privée, c’est une détérioration potentielle de votre libre arbitre et de la capacité d’une société à s’autodéterminer. On ne voit pourtant pas émerger un débat public authentique permettant d’arbitrer sereinement sur l’usage de ces technologies par nature duales.

La police de Los Angeles a par exemple utilisé, notamment avec le système Predpol, des algorithmes pour prédire les crimes en analysant les données. La justice algorithmique a-t-elle par exemple un avenir ?

A.M. : Aux États-Unis, PredPol a été retiré depuis le mouvement des Black Lives Matter. L’algorithme avait le même problème que les logiciels de reconnaissance faciale par exemple : on retrouvait des taux d’erreurs très faibles lorsqu’il s’agit d’identifier un homme blanc, mais des faux positifs anormalement élevés quand il s’agit par exemple de femmes noires.

Le risque est donc de s’intéresser injustement à certaines personnes. PredPol se basait sur des faits passés et envoyait toujours les patrouilles de police aux mêmes endroits. Involontairement, vous aviez une reproduction des inégalités préexistantes.

Il n’est pas dit que de tels usages ne reviennent pas. Tous les logiciels prédictifs de police sont intéressants quand ils vont donner des recommandations, mais ils ne doivent surtout pas se substituer à la décision humaine finale. Automatiser ces décisions sensibles qui tiennent entre leurs mains le destin des individus supprime toute possibilité de négociation ou de recours. L’idée est de garder les outils d’aide à la décision précisément comme simplement des outils d’aide, à leur juste place et avec les précautions d’usage quant à leur fiabilité.


Propos recueillis par Margot Favier et Pierre Bourgès, étudiants en master professionnel de journalisme à l’Institut de Journalisme Bordeaux Aquitaine (IJBA) dans le cadre des Tribunes de la Presse, dont The Conversation France est partenaire.

Want to write?

Write an article and join a growing community of more than 182,300 academics and researchers from 4,942 institutions.

Register now