Menu Close

Publicités politiques : l’irresponsabilité épistémique de Facebook… et des autres

Mark Zuckerberg auditionné par une commission du congrès, le 23 octobre dernier. Nicholas Kamm / AFP

Le 23 octobre 2019, alors qu’il était entendu par une commission du congrès des États-Unis, le président-directeur général de Facebook Mark Zuckerberg s’est retrouvé bien embarrassé lorsque, répondant aux questions de l’élue démocrate Alexandria Ocasio-Cortez, il a dû s’expliquer sur la politique laxiste de Facebook en matière de publicités politiques.

Alors qu’Alexandria Ocasio-Cortez lui demandait s’il serait possible de diffuser sur Facebook des publicités affirmant mensongèrement que des élus républicains auraient voté en faveur du Green New Deal (le grand plan d’investissement écologique défendu par Alexandra Ocasio-Cortez, honnis par les républicains), Mark Zuckerberg n’a rien su répondre d’autre que cela :

« Je pense que mentir est mal […]. Dans la plupart des cas, dans une démocratie, je crois que chacun devrait être capable de savoir par lui-même ce pour quoi les élus ont voté ou non […] »

Autrement dit : c’est aux électeurs de faire le tri en le vrai et le faux, pas à Facebook. Ce n’est pas la responsabilité de Facebook de vérifier la vérité du contenu des publicités politiques qui y sont diffusées. Mark Zuckerberg revendique explicitement d’être irresponsable en ce qui concerne la fiabilité des informations que son entreprise fait circuler, au moins vis-à-vis de ses usagers (vis-à-vis de ses clients, c’est peut-être différent). On parle ici d’une irresponsabilité « épistémique », car elle concerne la manière dont on s’assure qu’une information est vraie ou fausse (on peut bien sûr dire de Facebook qu’elle est également irresponsable sur le plan moral ou politique, mais ce sont d’autres aspects de la question).

Obligation de moyen

La notion de responsabilité épistémique est issue du champ de la philosophie de la connaissance, et notamment de l’épistémologie des vertus. Lorsque les philosophes en discutent, c’est dans un sens un peu différent de celui qui concerne l’attitude de Facebook. La responsabilité épistémique des philosophes, c’est celle qui engage un individu lorsqu’il forme une croyance : peut-on et doit-on le tenir responsable, d’une manière ou d’une autre, d’avoir formé une croyance fautive (quelle qu’elle soit) ?

C’est une question d’éthique intellectuelle, un problème abordé par le philosophe français Pascal Engel dans un livre récent. La responsabilité épistémique de Facebook concerne plutôt la disposition de cette entreprise à rendre des comptes pour ses possibles fautes épistémiques. Une faute épistémique est commise lorsque l’on ne fait pas correctement, voire pas du tout, le travail de vérification des informations que l’on diffuse. C’est typiquement le cas de Facebook avec ses publicités politiques. Et Facebook est clairement peu disposée à rendre des comptes pour cette faute.

Cette responsabilité épistémique n’est pas la responsabilité de dire immanquablement le vrai. Une telle responsabilité n’est pas tenable : on peut toujours se tromper. Si le simple fait de diffuser une information fausse était condamnable, Facebook n’aurait plus qu’à mettre la clé sous la porte… comme toutes les entreprises diffusant des informations susceptibles d’être fausses (c’est-à-dire… toutes !). De surcroît, un tel impératif de dire le vrai se heurterait à un principe démocratique fondamental : la liberté d’expression, qui implique aussi la liberté de dire des bêtises (dans la limite où ces bêtises ne nuisent pas directement à autrui). Et c’est bien là-dessus que joue Mark Zuckerberg lorsque, prononçant un discours à la Georgetown Université, il explique aux étudiants que tout en étant « préoccupé par l’érosion du vrai, (il) ne pense pas que l’on soit nombreux à souhaiter vivre dans un monde où l’on ne pourrait poster que des informations jugées vraies à 100 % par les entreprises du net ».

Mais la responsabilité épistémique, c’est autre chose. Être épistémiquement responsable n’implique pas de toujours dire la vérité, mais de toujours se donner les moyens de la dire. Cela n’entraîne pas une obligation de résultat (dire le vrai), mais une obligation de moyen (avoir fait son possible pour vérifier une information). Et tout le monde a les moyens, à la mesure de ses capacités et de ses ressources (qui ne manquent pas à Facebook), de correctement vérifier la vérité de ce que l’on dit. Même si, finalement, et c’est le point crucial, cela peut s’avérer faux.

Twitter, petit oiseau plus vertueux ?

L’échange tendu entre Alexandria Ocasio-Cortez et Mark Zuckerberg a rapidement fait le tour d’internet, suscitant l’opprobre général. Honte à Facebook ! Honte à Marc Zuckerberg, qui avec le président Donald Trump et les autres sires de leur espèce menaceraient de briser les États-Unis (et le reste des sociétés occidentales sous leur influence) si personne ne s’oppose à eux.

Quelques jours après, le 30 octobre, le PDG de Twitter, Jack Dorsey, annonce qu’il va bannir les publicités politiques, prenant à point nommé le contre-pied de Facebook, habile manière de se poser en chevalier blanc. Et ça marche. Alexandra Ocasio-Cortez n’a pas tardé à louer la décision de Twitter, ajoutant que « si une entreprise ne peut pas ou ne veut pas vérifier la fiabilité de ses publicités politiques, elle ne devrait pas en diffuser du tout ».

Steve Bullock, gouverneur du Montana et candidat aux primaires démocrates pour l’élection présidentielle des États-Unis, félicitait à son tour Twitter et se tournait vers Facebook : « Bien. À ton tour Facebook ». Alors, Twitter l’entreprise épistémiquement responsable, le petit oiseau bleu vertueux, contre Facebook le géant irresponsable ? Ce n’est pas si simple.

Twitter, certes d’une manière peut-être moins nocive que Facebook, ne se préoccupe pas non plus de la vérité ou de la fausseté des publicités politiques. Elle n’est pas plus disposée que Facebook à rendre compte des fautes qu’elle pourrait commettre en vérifiant le contenu de ces publicités. Elle n’affronte pas le problème, elle l’évacue. Ce n’est pas non plus, d’après Jack Dorsey, sa responsabilité de s’occuper de ça. Les publicités politiques, elles, continueront à être diffusées (notamment sur Facebook), avec leurs contenus plus ou moins douteux, plus ou moins trompeurs ou mensongers.

Une responsabilité oubliée

Mais pourquoi ces entreprises se préoccuperaient-elles d’être épistémiquement responsables ? Ce n’est aujourd’hui même pas un sujet d’inquiétude, ni même en fait un sujet tout court. En effet, la question de la responsabilité épistémique, le devoir de s’inquiéter de la fiabilité des informations que l’on diffuse, reste toujours subordonnée à la question du vrai. La plupart des discussions concernant les fakes news, le « bullshit » ou la post-vérité tournent autour de la nécessité de dire le vrai, ou celle de « respecter la vérité ». On ne reproche pas à Facebook de ne pas correctement faire son travail épistémique, mais de menacer la vérité. Les deux sont évidemment liés, mais ce n’est pas la même chose.

En fait, la notion même de responsabilité épistémique des entreprises n’est jamais explicitement discutée. C’est donc un non-sujet. Il existe évidemment une responsabilité sociale des entreprises (RSE), mais cette responsabilité sociale ne tient aucun compte du genre de pollutions épistémiques que l’on peut reprocher à Facebook… ou à Twitter et aux autres entreprises du net.

Ce qu’ont montré Twitter et Facebook, c’est l’urgence de changer cela, de recentrer les débats sur la question de la responsabilité épistémique des entreprises (et non sur la responsabilité de dire le vrai), et de tenir compte de cette notion dans les débats sur la responsabilité sociale des entreprises. Cela ne les empêcherait pas diffuser des informations douteuses, de même que la RSE n’empêche pas les entreprises indélicates de polluer, mais cela les engagerait au moins minimalement. Alors qu’aujourd’hui, comme Facebook, elles peuvent se contenter de balayer ça d’un revers de main. Ou pire, elles peuvent comme Twitter se donner des airs vertueux en restant irresponsables.

Want to write?

Write an article and join a growing community of more than 182,300 academics and researchers from 4,942 institutions.

Register now