tag:theconversation.com,2011:/uk/topics/algorithmes-24412/articlesalgorithmes – The Conversation2023-12-18T19:02:26Ztag:theconversation.com,2011:article/2189562023-12-18T19:02:26Z2023-12-18T19:02:26ZApprendre aux robots à improviser (avec des outils)<p>Les humains sont très forts pour utiliser des outils de façon détournée. Vous n’avez pas de cuillère ? Vous allez utiliser un stylo pour touiller votre café. Il manque un boulon pour accrocher une lampe ? Un élastique fera temporairement l’affaire. Besoin d’un plateau ? Un livre ou une tablette numérique suffiront. Cette capacité d’improvisation ne naît pas « ex nihilo », elle résulte de capacités cognitives qui nous permettent de faire des liens entre les objets, les outils à notre disposition, leurs usages…</p>
<p>L’utilisation d’outils dans les robots a jusqu’à présent été considérée comme un problème d’exploration et d’apprentissage : un robot a besoin de découvrir comment un outil peut être utilisé, soit en essayant diverses stratégies, soit en observant et en imitant d’autres humains ou robots. Dans <a href="https://www.nature.com/articles/s42256-022-00500-9">notre étude parue dans <em>Nature Machine Intelligence</em></a>, nous avons montré que l’on pouvait apprendre aux robots à penser de façon plus créative, « outside the box », comme diraient les anglophones.</p>
<p>Pour permettre aux robots d’utiliser les outils de manière intuitive comme les humains, nous avons d’abord examiné comment nous, les humains, sommes capables de le faire.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/yCgocGncPrg?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Notre robot détourne un outil pour attraper un seau. Source : 1MOVIENIGHT.</span></figcaption>
</figure>
<h2>Vers la « cognition des outils » chez les robots</h2>
<p>Un robot a besoin de ramasser un seau, mais le chemin est bloqué par certains obstacles. Ce robot-ci ne peut pas déplacer les obstacles ni sauter par-dessus. Mais il a pu chercher — et trouver — un bâton de nettoyage et l’utiliser comme outil pour ramasser le seau.</p>
<p>Cette utilisation simple d’un outil peut sembler évidente pour un humain, mais c’est un défi complexe pour un robot.</p>
<p>En effet, l’utilisation d’outils nécessite d’abord que le robot comprenne qu’il ne peut pas effectuer une tâche sans outil (1). Il doit ensuite trouver un objet dans son environnement qu’il puisse utiliser comme outil pour effectuer la tâche demandée (2). Pour il doit trouver comment utiliser cet outil, c’est-à-dire déterminer les actions à effectuer (3). Et enfin, bien sûr, exécuter ces actions… et donc réaliser la tâche (4).</p>
<p>Les deuxième et troisième défis sont des défis cognitifs fondamentaux, pour lesquels les humains semblent être très bons… et les robots, nettement moins.</p>
<p>Notre <a href="https://www.nature.com/articles/s42256-022-00500-9">nouvel algorithme de « cognition des outils » chez les robots</a> fait un grand pas en avant pour répondre à ces défis.</p>
<h2>Comment les humains reconnaissent-ils qu’un objet est suffisant pour servir d’outil pour une tâche donnée ?</h2>
<p>Dans notre travail, nous avons catégorisé des outils en fonction de la manière dont nous, humains, les utilisons. Cette catégorisation montre que les <a href="https://ieeexplore.ieee.org/abstract/document/8460987">humains ne peuvent en fait reconnaître intuitivement qu’une catégorie très spécifique d’outils</a>.</p>
<p>Ces outils de « catégorie 1 » sont des outils qui permettent de réaliser des tâches qui sont déjà dans le répertoire humain. Par exemple, une pince nous aide à saisir des objets, mais nous pouvons déjà le faire avec nos doigts ; un marteau nous aide à frapper des objets, ce que nous pouvons déjà faire avec le poing.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/565205/original/file-20231212-29-vw9tex.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="comparaisons entre gestes et outils" src="https://images.theconversation.com/files/565205/original/file-20231212-29-vw9tex.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/565205/original/file-20231212-29-vw9tex.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=318&fit=crop&dpr=1 600w, https://images.theconversation.com/files/565205/original/file-20231212-29-vw9tex.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=318&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/565205/original/file-20231212-29-vw9tex.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=318&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/565205/original/file-20231212-29-vw9tex.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=399&fit=crop&dpr=1 754w, https://images.theconversation.com/files/565205/original/file-20231212-29-vw9tex.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=399&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/565205/original/file-20231212-29-vw9tex.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=399&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Les gestes que l’on fait avec nos membres s’apparentent à ceux que l’on fait avec des outils de catégorie 1.</span>
<span class="attribution"><span class="source">Ganesh Gowrishankar</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>L’utilisation de ces outils de « catégorie 1 » nécessite le même geste que celui que nous ferions sans outil : une pince a besoin de vous pour pincer, ce qui est similaire à ce que vous ferez avec vos doigts ; un marteau nécessite que vous fassiez des mouvements de frappe oscillants, et vous feriez le même mouvement sans marteau.</p>
<p>Les outils de catégorie 1 sont probablement les plus courants dans la vie humaine et animale. Les premiers outils utilisés par les humains, des pierres pour frapper et casser les fruits et les couper, étaient des outils de catégorie 1, car les humains pouvaient effectuer ces tâches, avec des actions similaires, respectivement avec leur poing et leurs ongles. Et de fait, les <a href="https://www.cell.com/current-biology/fulltext/S0960-9822(10)01160-7">outils utilisés par les animaux peuvent être classés en catégorie 1</a>.</p>
<p>Nous appelons <a href="https://ieeexplore.ieee.org/abstract/document/8460987">outils de « catégorie 2 » les outils qui permettent de réaliser des tâches que les humains savent réaliser sans outil mais avec des gestes bien différents</a> (comme un cric de voiture pour soulever une voiture).</p>
<p>Les outils de catégorie 3 permettent de réaliser des tâches qui sortent du répertoire humain (comme un aspirateur ou une tronçonneuse).</p>
<p>Ces outils de catégories 2 et 3 ne peuvent pas être utilisés intuitivement par les humains : il faut lire des instructions, imiter un autre utilisateur, ou explorer l’outil pour découvrir comment l’utiliser.</p>
<h2>Les outils que les humains utilisent intuitivement</h2>
<p>On <a href="https://www.tandfonline.com/doi/full/10.1080/02643294.2016.1167678">croit en psychologie</a> que l’une des raisons pour lesquelles les humains sont bons dans l’utilisation des outils est que l’utilisation des outils conduit à une « incarnation » des outils, c’est-à-dire que le cerveau finit par considérer les outils comme une « extension » de notre corps.</p>
<p>Dans nos travaux sur <a href="https://www.nature.com/articles/ncomms5524">« l’incarnation » de l’outil</a> et du <a href="https://www.sciencedirect.com/science/article/pii/S0168010215002655">membre</a> par l’homme, nous avons observé que la similarité des caractéristiques d’un objet avec les caractéristiques fonctionnelles du membre est importante pour son incarnation.</p>
<p>Cette observation, ainsi que notre caractérisation des outils suggèrent que pour identifier les outils de catégorie 1, les humains utilisent peut-être leurs membres comme référence : un marteau est reconnu comme un outil pour frapper des objets car il ressemble beaucoup à un poing et à un bras, une pince est reconnue comme un outil pour pincer car elle ressemble à des doigts purs, et de même, une assiette ressemble à une paume et un bol ressemble à des mains en coupe. En identifiant et en comparant la posture de nos membres lorsque nous effectuons une tâche, nous pouvons identifier les outils qui peuvent être utilisés pour la tâche effectuée avec la même posture.</p>
<p>Utiliser la similitude avec ses membres est l’idée clé qui est utilisée pour programmer notre robot.</p>
<h2>Apprendre aux robots à reconnaître les outils qui ressemblent à ce qu’ils connaissent</h2>
<p>Notre algorithme utilise cette idée pour permettre aux robots de reconnaître les objets (même ceux qu’ils voient pour la première fois) comme des outils pour chaque tâche qu’ils ont la capacité d’effectuer « sans outils » (c’est-à-dire avec leurs membres, sans objet supplémentaire).</p>
<figure class="align-center ">
<img alt="robot saisissant un marteau pour faire glisser un objet sur une table" src="https://images.theconversation.com/files/565207/original/file-20231212-23-fcdvzp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/565207/original/file-20231212-23-fcdvzp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=338&fit=crop&dpr=1 600w, https://images.theconversation.com/files/565207/original/file-20231212-23-fcdvzp.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=338&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/565207/original/file-20231212-23-fcdvzp.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=338&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/565207/original/file-20231212-23-fcdvzp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=425&fit=crop&dpr=1 754w, https://images.theconversation.com/files/565207/original/file-20231212-23-fcdvzp.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=425&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/565207/original/file-20231212-23-fcdvzp.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=425&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Un robot utilise un outil qu’il ne connaissait pas, par analogie avec sa main.</span>
<span class="attribution"><span class="source">Ganesh Gowrishankar</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Une fois qu’un robot a appris à effectuer une tâche avec ses membres, notre algorithme lui permet d’utiliser ses membres comme référence pour reconnaître les outils qui l’aident à accomplir la même tâche. De plus, par définition, comme les outils de catégorie 1 nécessitent la même action que sans outils, le robot peut utiliser la même compétence (« contrôleur ») pour utiliser l’outil en augmentant simplement sa cinématique corporelle en fonction du nouvel outil.</p>
<p>Le robot n’a pas besoin d’avoir déjà utilisé un seul outil ni même d’avoir observé l’utilisation des outils par d’autres.</p>
<p>Dans notre proposition, nous fournissons également un algorithme de planification de préhension pour saisir et utiliser les outils identifiés. Contrairement aux <a href="https://link.springer.com/chapter/10.1007/978-3-540-77915-5_10">algorithmes</a> <a href="https://www.semanticscholar.org/paper/Robot-Manipulation-of-Human-Tools-%3A-Autonomous-and-Kemp-Edsinger/f6d6b232db4dc6be189bd86133eb9ec4083c6153">précédemment</a> <a href="https://doi.org/10.1007/978-3-642-38812-5_1">décrits</a> <a href="https://ieeexplore.ieee.org/document/6095595">dans la littérature</a> <a href="https://ieeexplore.ieee.org/document/6849774">scientifique</a>, le nôtre est le premier à permettre aux robots d’utiliser des outils sans avoir à apprendre au préalable avec les mêmes outils ou avec d’autres outils.</p>
<p>Cependant, pour le moment, notre algorithme permet uniquement aux robots d’utiliser des outils de catégorie 1, c’est-à-dire des outils pour les tâches que le robot est capable d’effectuer sans outils. Pour les outils de catégories 2 et 3, un apprentissage ou une observation (suivi d’une imitation) sont nécessaires, à l’instar des algorithmes d’utilisation d’outils précédents.</p>
<p>De plus, on peut étendre l’algorithme à l’utilisation d’outils similaires à ceux déjà connus du robot : en gros, on remplace la « similarité avec un membre » par « similarité avec un outil connu », comme suggéré par les <a href="https://scazlab.yale.edu/sites/default/files/files/IROS2020(5).pdf">algorithmes</a> <a href="https://ieeexplore.ieee.org/abstract/document/8239542">précédemment</a> décrits.</p>
<p>Mais comme nous l’avons vu, les outils de catégorie 1 semblent être les outils les plus basiques chez l’homme et l’animal et nous pensons donc que notre algorithme constitue une étape significative vers la cognition des outils chez les robots.</p><img src="https://counter.theconversation.com/content/218956/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Ganesh Gowrishankar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Observer comment les humains utilisent des outils qu’ils n’ont jamais vus permet d’apprendre aux robots à faire la même chose. Entre neurosciences et robotique.Ganesh Gowrishankar, Chercheur au Laboratoire d'Informatique, de Robotique et de Microelectronique de Montpellier, Université de MontpellierLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2171482023-11-08T13:50:47Z2023-11-08T13:50:47ZContenu des médias sociaux en temps de guerre : un guide d'experts sur la manière d'éviter la violence sur vos fils d'actualité<figure><img src="https://images.theconversation.com/files/557803/original/file-20231030-25-2np8f3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Il existe des moyens pratiques de filtrer la quantité de contenus violents et graphiques que vous voyez sur les médias sociaux.</span> <span class="attribution"><span class="source">bubaone</span></span></figcaption></figure><p>Les plateformes de médias sociaux sont une importante source d'information et de divertissement. Elles nous permettent également de rester en contact avec nos amis et notre famille. Mais les réseaux sociaux peuvent aussi devenir - <a href="https://theconversation.com/mounting-research-documents-the-harmful-effects-of-social-media-use-on-mental-health-including-body-image-and-development-of-eating-disorders-206170">et sont</a>, <a href="https://doi.org/10.1093/joc/jqab034">souvent devenus</a> - un environnement toxique où se propagent la désinformation, la haine et les conflits. </p>
<p>La plupart des gens ne peuvent pas ou ne veulent pas se passer des réseaux sociaux. Les mesures prises par les tribunaux et des <a href="https://foreignpolicy.com/2022/04/25/the-real-threat-to-social-media-is-europe/">organismes publics</a> pour les réguler ou les contrôler sont en train de rattraper lentement leur retard, mais ont jusqu'à présent infructueuses. Et les entreprises de médias sociaux ont l'habitude de <a href="https://www.bfmtv.com/economie/desinformation-facebook-a-dissimule-un-rapport-qui-risquait-de-ternir-son-image_AD-202108220068.html">donner la priorité à l'interaction</a> au détriment du bien-être social.</p>
<p>Les utilisateurs se retrouvent face à un dilemme : comment tirer profit des réseaux sociaux sans s'exposer à des contenus qui génèrent du stress, nuisibles ou illégaux? Cette question se pose avec encore plus d'acuité en période de tensions et de conflits mondiaux. Le conflit en Ukraine et maintenant la guerre de Gaza ont augmenté le risque de voir des <a href="https://www.ledevoir.com/monde/moyen-orient/800452/guerre-israel-hamas-guerre-images-images-guerre">images horribles et nuisibles</a> sur son fil d'actualité. </p>
<p>Cet article, basé sur <a href="https://orcid.org/0000-0001-5171-663X">mes recherches</a> sur l'actualité dans les médias sociaux, est un guide de sélection et d'édition de vos flux de médias sociaux afin de vous assurer que le contenu que vous voyez est adapté à vos besoins et n'est pas offensant ou dérangeant. </p>
<p>Il est organisé selon les catégories de médias sociaux les plus grands. Je ne couvre pas les nouveaux services tels que <a href="https://www.threads.net/login">Threads</a>, <a href="https://mastodon.social/explore">Mastodon</a>, <a href="https://post.news/feed">Post</a> et <a href="https://bsky.app/">Bluesky</a>, bien que les principes leur soient généralement applicables. Je me suis focalisée sur l'utilisation de ces applications sur un téléphone portable, car c'est ce que font <a href="https://www.pewresearch.org/global/2022/12/06/internet-smartphone-and-social-media-use-in-advanced-economies-2022/">la majorité des utilisateurs</a>, plutôt que de les utiliser sur un navigateur web. Je me concentre principalement sur le contenu vidéo.</p>
<p>Les réseaux sociaux peuvent être un outil puissant d'information et d'apprentissage, mais ils sont imparfaits. Quelle que soit l'approche que vous adoptez pour gérer vos flux, restez prudents et sceptiques. Soyez attentifs aux mises à jour des politiques et des accords d'utilisation et réfléchissez bien aux personnes auxquelles vous faites confiance et que vous suivez. </p>
<h2>Est-ce votre choix ou le leur ?</h2>
<p>De nombreux réseaux sociaux proposent un flux sélectionné de manière algorithmique comme premier point de contact. Les détails des algorithmes ne sont pas connus du public et les entreprises les affinent constamment. Le flux est en grande partie basé sur votre localisation et sur les sujets et les personnes pour lesquels vous avez manifesté un intérêt précédemment (que vous ayez suivi ou simplement regardé ou interagi avec le contenu). Il peut également inclure d'autres informations telles que votre âge et votre sexe, que vous avez peut-être déjà communiquées au service. </p>
<p>Les organisations et les particuliers investissent de l'argent et du temps pour s'assurer que leur contenu soit vu. Les annonceurs paieront également pour que leur contenu soit montré aux clients qui répondent à leurs critères. Il est également important de se rappeler que les contenus payants ne sont pas seulement des biens et des services à vendre, mais qu'ils peuvent aussi avoir un objectif politique ou social, souvent caché. C'est la base des <a href="https://link.springer.com/article/10.1007/s13278-023-01028-5">fake news et de la désinformation</a>.</p>
<p>Voici quelques outils pour gérer vos fils d'actualité sur les réseaux sociaux</p>
<h2>Soyez prudents dans le choix de vos abonnements</h2>
<p>Sur tous les réseaux, à l'exception de TikTok, la clé consiste à sélectionner avec soin les personnes que vous suivez.</p>
<p>Sur Twitter (X), la meilleure solution consiste à s'éloigner de la page “Pour vous” (qui est l'interface par défaut) et à se concentrer sur la page “Abonnements”. Vous ne pouvez pas supprimer entièrement la page “Pour vous”. Le flux “Abonnements” comprend toutes les personnes que vous suivez, leurs tweets et leurs retweets. </p>
<p>Si vous voyez des contenus que vous ne souhaitez pas voir, vous pouvez vous désabonner, les bloquer ou les masquer.</p>
<p>La manière la plus simple de nettoyer votre fil d'actualité Facebook est “défreinder” (cesser d'être l'ami de quelqu'un sur le réseau social). Une autre option est de ne plus suivre quelqu'un: vous restez amis, la personne concernée peut voir votre contenu et s'y intéresser, mais ses publications n'apparaîtront pas dans votre fil d'actualité, à moins qu'elle ne vous mentionne ou que vous ne la recherchiez. Vous pouvez également “faire une pause” avec quelqu'un, ce qui constitue une sorte de blocage temporaire. Le blocage est l'option la plus extrême. Il supprime la personne et tout son contenu, et cache tout le vôtre.</p>
<p>Instagram propose des options similaires pour supprimer un utilisateur et le masquer (à l'instar de l'option “prendre une pause” de Facebook).</p>
<p>TikTok n'offre aux utilisateurs que des options limitées pour filtrer ou organiser leur fil d'actualité. La page “Abonnements” n'affiche que les créateurs que vous suivez (et les publicités). Elle n'est pas et ne peut pas être définie comme l'affichage par défaut.</p>
<p>La page “Pour vous” est entièrement pilotée par des algorithmes. Cliquer sur un créateur vous permet uniquement de le suivre, et non de le masquer ou de le bloquer. Vous pouvez toutefois bloquer des utilisateurs spécifiques. Cliquez sur leur profil, puis sur l'icône de partage. Les options “Signaler” et “Bloquer” se trouvent sous les différentes options de partage. Le blocage supprime le contenu de l'utilisateur, mais pas le contenu des autres utilisateurs qui le présentent.</p>
<h2>Explorez vos paramètres</h2>
<p>De nombreuses plateformes proposent des options permettant de limiter les contenus violents ou graphiques. Sur Facebook, ces options se trouvent dans le menu Paramètres. De là, cliquez sur “Fil d'actualité”, puis sur “Réduire”. Vous ne pouvez pas supprimer ce contenu, mais vous pouvez le déplacer vers le bas de votre fil d'actualité. </p>
<p>Sur TikTok, un appui long sur l'écran fait apparaître le panneau des options. De là, vous pouvez signaler une vidéo ; il y a aussi une option “pas intéressé” pour supprimer cette vidéo et d'autres avec des hashtags similaires de votre fil d'actualité. Si vous cliquez sur “détails” pour voir quels hashtags seront filtrés, vous pouvez en sélectionner certains à bloquer. Toutefois, la fiabilité de cette option n'est pas évidente : les hashtags changent au fil du temps. Un certain nombre de hashtags ne peuvent apparemment pas être filtrés, mais on ne sait pas exactement de quoi il s'agit ni pourquoi ils ne peuvent pas l'être.</p>
<p>L'option “Préférences de contenu” sous “Paramètres” vous permet de filtrer les mots-clés vidéo. Cela permet de les supprimer de votre page “Pour vous”, de votre page “Abonnements”, ou des deux.</p>
<p>Vous pouvez également mettre TikTok en “mode restreint”. Cela limite l'accès aux “contenus inappropriés” – une description opaque.</p>
<h2>Attention aux utilisateurs</h2>
<p>Il ne s'agit pas d'un guide parfait, car les médias sociaux ne sont pas conçus pour être contrôlés par l'utilisateur. Ces entreprises sont basées sur l'engagement des utilisateurs : plus vous passez de temps sur leur application, plus elles gagnent de l'argent. Elles ne s'intéressent pas particulièrement à l'utilité ou à l'exactitude du contenu.</p><img src="https://counter.theconversation.com/content/217148/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Megan Knight does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.</span></em></p>Quelle que soit l'approche que vous adoptez pour gérer vos flux, restez prudents et sceptiques.Megan Knight, University of HertfordshireLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2133812023-09-14T17:30:26Z2023-09-14T17:30:26ZComment Airbnb transforme ses utilisateurs en entrepreneurs narcissiques<p>Si vous parcourez les annonces <a href="https://theconversation.com/fr/topics/airbnb-42384">Airbnb</a> en vue d’une escapade d’un week-end, non seulement vous allez vérifier les équipements des logements, mais vous ferez également défiler les commentaires des clients précédents. Si vous mettez votre maison en <a href="https://theconversation.com/fr/topics/location-36297">location</a> sur la même plate-forme, vous examinerez minutieusement les clients potentiels au préalable. N’est-ce pas ?</p>
<p>En effet, tout le monde veut être rassuré, surtout lorsqu’il s’agit de laisser entrer des étrangers chez soi. Comme le soulignait un <a href="https://www.nytimes.com/2018/01/19/realestate/surviving-a-bad-airbnb-review.html">article du <em>New York Times</em></a> en 2018 :</p>
<blockquote>
<p>« Personne ne veut louer à une personne qui a fait du dernier logement occupé un bordel improvisé ou un repaire de drogués ».</p>
</blockquote>
<p>Après tout, les <a href="https://theconversation.com/fr/topics/plates-formes-31157">plates-formes</a> en ligne telle qu’Airbnb, Turo ou Uber ne peuvent en aucun cas contrôler chaque transaction. C’est pourquoi, pour maintenir la confiance dans leurs plates-formes, elles décentralisent le contrôle vers les utilisateurs. Comment ? Par le biais d’évaluations – tout en conservant la maîtrise de l’infrastructure de contrôle.</p>
<h2>Auto-descriptions enjouées</h2>
<p>Dans <a href="https://www.emerald.com/insight/content/doi/10.1108/AAAJ-12-2018-3797/full/html">notre article de recherche</a>, qui s’appuie sur les données empiriques de la thèse de doctorat de Pénélope Van Den Bussche, prix 2019 de la meilleure thèse en comptabilité de l’Association Francophone de Comptabilité, nous montrons que ce type de structure de contrôle, fondé sur les processus d’<a href="https://theconversation.com/fr/topics/evaluation-43771">évaluation</a> <em>peer-to-peer (pair à pair)</em>, attise le <a href="https://theconversation.com/fr/topics/narcissisme-73190">narcissisme</a> des utilisateurs. En effet, les loueurs comme les locataires comptent sur les évaluations qu’ils donnent et reçoivent pour réaffirmer des caractéristiques personnelles. Autrement dit, les utilisateurs ne sont pas seulement engagés dans la maximisation monétaire. Ils cherchent également à augmenter leur propre valeur en tant que personne et la plate-forme les incite à agir de la sorte.</p>
<p>Pour étudier les mécanismes par lesquels les utilisateurs s’approprient le système d’évaluation, nous avons réalisé une ethnographie en ligne, ou « netnographie », en analysant plus de 300 commentaires d’utilisateurs sur des locations dans les principales villes européennes, et nous avons mené 17 entretiens avec des utilisateurs d’Airbnb et un entretien avec un cadre de la plate-forme.</p>
<p>Notre analyse montre d’abord que les utilisateurs apprécient le sentiment d’appartenance à une communauté. Airbnb demande aux utilisateurs de créer un profil individuel et les encourage à fournir des informations personnelles. Que cela plaise ou non – certaines personnes interrogées ont déclaré que c’était « une corvée » – ils s’y soumettent, comprenant que cela fait partie du « jeu », et affichent généralement des auto-descriptions enjouées.</p>
<p>Ces profils personnalisent les transactions et ancrent l’utilisation de la plate-forme dans une communauté. Les informations publiées élargissent également l’enjeu de l’évaluation. En effet, si le critère de « l’emplacement » concerne clairement le domicile, celui de la « communication » s’applique à la personne. Ainsi, de manière subtile, l’objet de l’évaluation se déplace du service vers la valeur propre de l’utilisateur.</p>
<h2>« Un bon point à l’école »</h2>
<p>Autre facteur d’attrait pour les utilisateurs : la norme des avis sur la plate-forme reste fortement positive, avec des commentaires récurrents sur des appartements « incroyables », « charmants » et « merveilleux ». En fait, nous avons observé que la norme est à la perfection ou à la quasi-perfection, les évaluations ne descendant jamais en moyenne en dessous de 4,5 sur 5 dans les villes les plus importantes de la plate-forme en termes d’évaluations (Los Angeles, Paris, New York et Londres).</p>
<p>En réalité, les mauvaises évaluations sont taboues. Au lieu de cela, les utilisateurs gèrent les expériences désagréables (réfrigérateurs malodorants, punaises de lit, vols, etc.) soit par des courriels privés échangés avec l’autre partie, soit par des commentaires publics euphémiques, afin de ne pas blesser l’autre utilisateur. Les commentaires sont toujours positifs en apparence, mais les utilisateurs font des allusions subtiles qui peuvent alerter le reste de la communauté, sans risquer de paraître trop critiques.</p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>Le fait de critiquer publiquement les autres sur les plates-formes <em>peer-to-peer</em> est donc problématique, notamment parce que l’utilisateur qui donne l’évaluation est potentiellement considéré comme un « casse-pied » ou un « pinailleur furieux ». À l’inverse, les utilisateurs décrivent l’attribution de bonnes critiques comme un plaisir, comme s’ils décernaient un prix. Les hôtes qui les reçoivent ont l’impression d’avoir reçu « un bon point à l’école ».</p>
<p>Dans notre article, nous citons l’exemple d’un utilisateur heureux de paraître non raciste parce qu’il avait accepté une réservation d’un Afro-Américain. Nous en concluons que les commentaires sont un moyen de donner un sens à sa propre personne et une occasion de montrer une projection idéale de soi.</p>
<h2>Éviter les « losers »</h2>
<p>En creusant davantage les subtilités du processus, nous expliquons que les utilisateurs donnent également un sens à leur propre personne à travers les autres utilisateurs qu’ils sélectionnent en décodant les faibles indices dans les évaluations. Alors que la plate-forme encourage officiellement la publication d’informations personnelles pour réduire l’incertitude de la transaction, les utilisateurs le font en recherchant des pairs : des personnes qui leur ressemblent.</p>
<p>Par exemple, Igor, un Français employé dans ce qu’il appelle des « galeries d’art branchées », précise que son annonce est uniquement en anglais pour « éviter les Français qui ne parlent pas anglais, la pire espèce. Ils ne font que des trucs touristiques ». En évitant ce qu’il appelle les « <em>losers</em> », il trouve du réconfort dans son côté branché.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/547745/original/file-20230912-25-gimdvr.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Capture d’écran du site Airbnb en 2015 avec le slogan « Welcome home » (bienvenue chez vous)" src="https://images.theconversation.com/files/547745/original/file-20230912-25-gimdvr.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/547745/original/file-20230912-25-gimdvr.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=278&fit=crop&dpr=1 600w, https://images.theconversation.com/files/547745/original/file-20230912-25-gimdvr.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=278&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/547745/original/file-20230912-25-gimdvr.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=278&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/547745/original/file-20230912-25-gimdvr.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=349&fit=crop&dpr=1 754w, https://images.theconversation.com/files/547745/original/file-20230912-25-gimdvr.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=349&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/547745/original/file-20230912-25-gimdvr.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=349&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Les utilisateurs d’Airbnb apprécient le sentiment d’appartenance à une communauté.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Airbnb.png">Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>En tant qu’hôte, Violet explique que lorsqu’elle choisit un logement, elle cherche un quartier comparable au sien. Pour elle, Airbnb est :</p>
<blockquote>
<p>« Une affaire de gens qui ont de l’argent et qui veulent loger dans un appartement qui appartient à quelqu’un comme eux, de la même catégorie socioprofessionnelle, mais qui n’ont pas envie de rencontrer ce quelqu’un ! »</p>
</blockquote>
<p>Cependant, tous les utilisateurs ne possèdent pas une telle réflexivité, beaucoup se fiant à leur « instinct » ou revendiquant leur ouverture d’esprit lors de la sélection des hôtes ou des invités. En contraste frappant avec cette apparence de tolérance, de nombreux utilisateurs excluent en effet d’autres personnes sur la base de considérations racistes ou sexistes.</p>
<h2>Un contrôle optimal et bon marché</h2>
<p>En définitive, les processus de sélection mis en œuvre par les utilisateurs d’Airbnb révèlent un écart important entre l’ouverture d’esprit qu’ils affichent et leur propension réelle à choisir des utilisateurs qui leur ressemblent. Ils finissent par discriminer plus ou moins consciemment sur la base de critères sociaux, raciaux ou de classe (fautes d’orthographe, stéréotypes raciaux, perception de la ville d’origine d’un hôte comme étant un foyer criminalité, etc.).</p>
<p>Derrière la façade de la communauté, les processus d’évaluation en ligne poussent donc les utilisateurs, qui s’appuient dessus pour limiter les risques, dans des schémas de reproduction sociale. Pour la plate-forme, le narcissisme des utilisateurs devient alors une infrastructure de contrôle optimal et bon marché.</p>
<p>Au-delà du contexte spécifique de ces plates-formes en ligne, ce phénomène est révélateur de l’omniprésence de l’évaluation dans notre société basée sur le numérique et les <a href="https://theconversation.com/fr/topics/algorithmes-24412">algorithmes</a>. Elle nous pousse à la reproduction sociale et produit des entrepreneurs narcissiques, dont l’esprit critique est étouffé par les mécanismes d’évaluation.</p><img src="https://counter.theconversation.com/content/213381/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Une étude des commentaires postés sur la plate-forme de location de logements montre les effets négatifs de la logique d’évaluation par les pairs.Pénélope Van den Bussche, Doctorante en Sciences de Gestion, ESCP Business SchoolClaire Dambrin, Professor in Management Control, ESCP Business SchoolLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2128072023-09-07T15:36:04Z2023-09-07T15:36:04ZLa vidéosurveillance automatisée, déjà gagnante de la Coupe du monde de rugby en France<p>Ce vendredi 8 septembre 2023, débutera en France la <a href="https://www.rugbyworldcup.com/2023/">Coupe du monde de rugby organisée dans dix villes hôtes réparties dans le territoire</a>. L’enjeu est bien sûr sportif et économique… mais il est aussi sécuritaire.</p>
<p>En ce sens, l’événement sera l’occasion pour les pouvoirs publics d’expérimenter pour la première fois en France l’usage de la vidéosurveillance automatisée ou algorithmique (VSA). </p>
<p>Le principe de cette technique est de pouvoir détecter en temps réel et de manière automatisée (grâce au recours à des logiciels), des comportements ou des situations définies comme à risque. </p>
<p>Il peut s’agir, par exemple, de détecter un bagage abandonné ou un mouvement de foule. Cette technique se distingue de la reconnaissance faciale qui permet d’identifier biométriquement une personne et <a href="https://www.lemonde.fr/sport/article/2022/11/23/jo-2024-la-reconnaissance-faciale-ne-sera-pas-experimentee-durant-les-jeux_6151265_3242.html">qui a été exclue pour le moment</a>. </p>
<h2>Un cadre légal permissif</h2>
<p>Le recours à ce type de dispositif, jusqu’alors impossible, a été permis par l’article 10 de la <a href="https://www.legifrance.gouv.fr/dossierlegislatif/JORFDOLE000046777392/">Loi du 19 mai 2023 « relative aux jeux olympiques et paralympiques de 2024 et portant diverses autres dispositions »</a>. Celui-ci autorise le traitement automatisé d’images issues des caméras de vidéosurveillance déjà implantées (ou qui le seront, par exemple près des stades ou des fans zones) et celles des caméras installées <a href="https://www.interieur.gouv.fr/actualites/actualites-du-ministere/nouvelle-reglementation-sur-captation-dimages-de-drones-dans">sur les drones</a> qui pourront survoler les foules. </p>
<p>Si les <a href="https://www.lemonde.fr/pixels/article/2023/03/20/jo-de-paris-2024-pourquoi-la-videosurveillance-automatisee-fait-debat_6166273_4408996.html">débats ont été nombreux</a> et les <a href="https://www.laquadrature.net/2023/01/05/mobilisation-generale-contre-la-legalisation-de-la-videosurveillance-automatisee/">contestations associatives importantes</a>, est ainsi désormais autorisé « à titre expérimental », le traitement algorithmique de ces images, afin d’assurer la sécurité des manifestations sportives, récréatives ou culturelles qui, « par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ». Ce sont ainsi des logiciels, le <a href="https://www.nextinpact.com/lebrief/69124/le-nouveau-business-videosurveillance-algorithmique-automatisee">plus souvent développés par des entreprises privées</a>, qui permettent cette analyse automatisée des vidéos.</p>
<p>Malgré le titre du texte adopté par le Parlement, cette expérimentation <a href="https://www.lemonde.fr/sport/article/2023/03/23/jo-2024-les-deputes-autorisent-la-videosurveillance-algorithmique-avant-pendant-et-apres-les-jeux_6166681_3242.html">s’étend bien au-delà des Jeux de 2024</a>. Déjà entrées en vigueur, ces dispositions autorisent les pouvoirs publics à user de ce nouveau dispositif dès maintenant dès lors que les circonstances prévues sont réunies. Or, tel semble être le cas pour l’organisation d’une compétition internationale comme la Coupe du Monde de rugby en France. Il faut également noter que <a href="https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000047561974/#JORFARTI000047561986">l’article du 10 de la loi prévoit la fin de l’expérimentation, pour le moment, au 31 mars 2025</a>, soit environ sept mois après la fin des compétitions olympiques à Paris.</p>
<p>Les termes employés par l’article 10 sont peu précis, notamment lorsqu’il s’agit de « manifestations récréatives ». Cette indéfinition pourrait permettre juridiquement de voir s’appliquer la VSA à d’autres événements comme des festivals, des concerts ou d’autres rassemblements comme les traditionnels marchés de Noël.</p>
<h2>Une expérimentation risquée</h2>
<p>Le risque de telles expérimentations permises largement réside, précisément, dans l’abandon de leur caractère exceptionnel et temporaire, tel que la loi le précise actuellement. En ce sens, l’organisation des grands événements comme la Coupe du monde de rugby en France peut constituer un <a href="https://www.cairn.info/revue-du-crieur-2023-1-page-46.htm">accélérateur de ces politiques exceptionnelles qui se voient ensuite pérennisées</a>. Les exemples étrangers ne manquent pas comme l’adoption de lois controversées, <a href="https://www.rfi.fr/fr/emission/20171031-le-japon-adopte-une-loi-anti-conspiration-suscite-inquietude">à l’image d’une loi « anti-conspiration »</a> par le Japon à l’occasion des précédents Jeux olympiques.</p>
<p>En France, l’exemple de <a href="https://www.immigration.interieur.gouv.fr/Europe-et-International/La-circulation-transfrontiere/Le-passage-rapide-aux-frontieres-exterieures-PARAFE">PARAFE</a>, dispositif de reconnaissance faciale pour le passage de frontière, est <a href="https://www.lepoint.fr/societe/les-aeroports-parisiens-se-mettent-a-la-reconnaissance-faciale-06-07-2018-2233828_23.php#11">particulièrement parlant</a>. Expérimenté en 2005, il a été pérennisé en <a href="https://www.legifrance.gouv.fr/loda/id/JORFTEXT000000824452">2007</a> puis étendu en <a href="https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000032372112">2016</a>. </p>
<p>Dès lors, il est possible de douter du caractère réellement expérimental du recours à <a href="https://www.cairn.info/la-globalisation-de-la-surveillance--9782707156259-page-166.htm">ces dispositifs de surveillance</a>. Ce constat est d’autant plus préoccupant qu’il sera difficile de tirer un bilan à ce titre après l’organisation de ces grands rassemblements sportifs. En effet, en l’absence (évidemment souhaitable) de tout événement dramatique, on ne manquera sans nul doute de saluer l’efficacité de ces outils — alors même que cette réussite serait sans doute expliquée par bien d’autres facteurs — tandis que s’il devait advenir un quelconque incident, on soulignerait la pertinence de renforcer <a href="https://www.cairn.info/revue-futuribles-2022-4-page-87.htm">ces dispositifs de surveillance et de contrôle</a>.</p>
<p>Ainsi, le <a href="https://www.lemonde.fr/idees/article/2023/03/10/adoptee-pour-les-jo-de-paris-2024-la-surveillance-algorithmique-n-a-jamais-fait-ses-preuves_6164900_3232.html">dispositif technosécuritaire aurait toujours raison</a> et ce d’autant plus que l’organisation de telles compétitions peut apparaître comme une <a href="https://www.sudouest.fr/sport/jeux-olympiques/les-jo-de-paris-vitrine-de-la-techno-police-16152110.php">« vitrine sécuritaire »</a> pour les États concernés aux yeux du monde.</p>
<p>L’<a href="https://theconversation.com/la-reconnaissance-faciale-du-deverrouillage-de-telephone-a-la-surveillance-de-masse-184484">accoutumance à ces outils</a>, comme <a href="https://fr.wikipedia.org/wiki/Effet_cliquet">l’effet cliquet</a> — selon lequel il est <a href="https://www.lemonde.fr/economie/article/2014/10/14/l-effet-de-cliquet-ennemi-de-la-democratie_4505904_3234.html">difficile de revenir en arrière une fois un cap passé</a> — rendent tout retour en arrière encore plus invraisemblable. </p>
<h2>Un dispositif biaisé</h2>
<p>Sur le fond, le but de la vidéosurveillance automatisée est de permettre la détection « en temps réel, des événements prédéterminés susceptibles de présenter ou de révéler ces risques » à partir des images de vidéosurveillance, dont les <a href="https://theconversation.com/video-surveillance-ou-vont-nos-donnees-171622">règles d’usage et de conservation ne sont pas modifiées</a>. Ces alertes sont alors ensuite transmises aux services de sécurité (au sein des postes de commandement ou dans des centres de vidéosurveillance) qui prennent les mesures nécessaires.</p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>Un tel fonctionnement permet aux défenseurs de ces techniques de soutenir le caractère subsidiaire de ces outils qui ne viseraient qu’à renforcer l’efficacité des forces de sécurité qui demeurent seuls décisionnaires. La vidéosurveillance automatisée <a href="https://lcp.fr/actualites/jeux-olympiques-gerald-darmanin-defend-l-usage-de-la-videosurveillance-algorithmique">ne serait en ce sens pas plus dangereuse</a> pour les libertés que la vidéosurveillance classique.</p>
<p>Or, une telle présentation nous semble en réalité peu réaliste. En effet, deux biais importants peuvent, à notre sens, être mis en évidence.</p>
<p>D’une part, en amont, utiliser la VSA impose aux concepteurs de ces outils ou aux donneurs d’ordre de définir très précisément et à l’avance les comportements à risque qui devront être recherchés par les caméras <a href="https://www.legifrance.gouv.fr/jorf/article_jo/JORFARTI000048007150">au-delà de la liste relativement générale adoptée par décret</a>. Or, ces <a href="https://www.laquadrature.net/2022/03/23/quest-ce-que-la-videosurveillance-algorithmique/">« patterns »</a> ne correspondent pas nécessairement — voire rarement — à des infractions pénales puisqu’il peut s’agir du simple fait de ne pas respecter le sens de circulation majoritaire. En ce sens, leur définition revient à ériger une forme de norme sociale nouvelle renforçant encore davantage le <a href="https://www.cairn.info/revue-cites-2010-2-page-127.htm">sentiment de contrôle et l’intériorisation par les individus de cette norme</a>. </p>
<p>D’autre part, en aval, si l’action humaine est toujours nécessaire (la VSA n’autorise heureusement pas les arrestations automatiques), celle-ci se trouve particulièrement biaisée par la manière dont fonctionnent ces dispositifs. En effet, la VSA conduit à une forme de « présomption de risque » auquel il appartient ensuite à la personne soupçonnée de répondre (« pourquoi avez-vous l’air anxieux ? »). Le rôle de la police est alors profondément modifié et la <a href="https://theconversation.com/fiches-s-et-autres-fichiers-de-police-de-quoi-parle-t-on-vraiment-148640">garantie des droits, comme la présomption d’innocence, mise à mal</a>.</p>
<h2>Une incarnation du mythe du « risque zéro »</h2>
<p>En définitive, présentée comme une nécessité induite par l’impossibilité pour des agents humains de <a href="https://www.lyoncapitale.fr/actualite/la-police-nationale-prend-les-commandes-des-cameras-de-villeurbanne">garder un œil attentif sur des dizaines d’écrans</a> (là où deux autres solutions seraient envisageables : réduire le nombre de caméras ou recruter davantage d’agents), la vidéosurveillance automatisée contribue à renforcer le <a href="https://www.ldh-france.org/wp-content/uploads/IMG/pdf/H_L154_5._La_dictature_du_risque_zero_.pdf">mythe d’un « risque zéro »</a> impossible à atteindre. </p>
<p>Plus encore, cette course en avant permanente impose un autorenforcement impossible à limiter. Très concrètement, pour permettre à la VSA de fonctionner effectivement, les pouvoirs publics ont investi également très largement dans le renforcement du parc de caméras de vidéosurveillance qui, elles-mêmes, nécessiteront toujours davantage d’automatisation. Le ministre de l’Intérieur annonçait il y a peu en ce sens <a href="https://www.lagazettedescommunes.com/833970/prevention-de-la-delinquance-les-credits-dedies-a-la-videosurveillance-vont-tripler/">44 millions d’euros en 2024 pour la vidéosurveillance, soit environ 15 000 nouvelles caméras</a> dont l’emplacement est décidé en grande majorité par les municipalités. Le piège est d’autant plus grand que s’y engouffrent les <a href="https://blogs.mediapart.fr/la-quadrature-du-net/blog/050423/videosurveillance-biometrique-derriere-l-adoption-du-texte-la-victoire-d-un-lobby">industriels et géants de la sécurité et du numérique</a>, <a href="https://lesjours.fr/obsessions/thales-surveillance/ep1-nice-safe-city/">heureux de vendre leurs solutions aux collectivités</a>.</p>
<p>Derrière le bel événement que représente l’organisation en France de la Coupe du monde de rugby, et bientôt celle des Jeux olympiques et paralympiques, il faut ainsi toujours rester sur ses gardes quant à l’avènement de techniques de surveillance ou de contrôle qui, présentés comme efficaces voire nécessaires pour garantir la sécurité de telles compétitions sportives, n’en demeurent pas moins dangereuses pour nos libertés et la démocratie.</p><img src="https://counter.theconversation.com/content/212807/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Yoann Nabat est membre de l'Observatoire de la surveillance en démocratie de l'université de Bordeaux. </span></em></p><p class="fine-print"><em><span>Elia Verdon est membre de l'Observatoire de la surveillance en démocratie de l'université de Bordeaux.</span></em></p>Des algorithmes peuvent être utilisés pour repérer des comportements et événements classés « à risque » lors de grands événements – une automatisation qui présente aussi des risques pour les libertés.Yoann Nabat, Enseignant-chercheur en droit privé et sciences criminelles, Université de BordeauxElia Verdon, Doctorante en droit public et en informatique, CERCCLE (EA 7436) et LaBRI (UMR 5800), Université de BordeauxLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2125492023-08-31T18:01:42Z2023-08-31T18:01:42ZIA : le but est-il devenu le moyen ?<p><em>Dans leur ouvrage, <a href="https://editionsdelaube.fr/catalogue_de_livres/lintelligence-artificielle-nest-pas-une-question-technologique/">« L’intelligence artificielle n’est pas une question technologique »</a> (Éditions de l’Aube), Laurent Bibard, responsable de la filière Management et philosophie de l’ESSEC, et Nicolas Sabouret, professeur à l’Université Paris-Saclay où il dirige la graduate school d’informatique et sciences du numérique, soulignent qu’« il n’y a pas de problème d’intelligence artificielle, il n’y a que le problème de nos attentes à l’égard de ce que nous avons nous-mêmes créé ». Démonstration avec un extrait que nous republions sur The Conversation France.</em></p>
<hr>
<p>Même si nous avons du mal à l’admettre, la tendance est plutôt technophile dans notre société. Malgré certaines résistances qui s’expriment à travers la demande de « moins de technologie » et « plus d’humain », la tendance générale est que la société se « technologise » de plus en plus, sans forcément réfléchir collectivement aux raisons pour lesquelles elle le fait. Et cela nous conduit à ce genre de situation où l’on renouvelle les machines très souvent et où l’on calcule à tout va, donc en <a href="https://www.lemonde.fr/economie/article/2022/01/09/le-numerique-dans-le-piege-climatique_6108779_3234.html">générant énormément de pollution</a>. […]</p>
<p>Il faut bien distinguer, dans ces outils de calcul qui coûtent très cher et qui polluent, d’une part, les calculs qui sont faits dans un but collectif de progrès pour la société – que ce soit par les chercheurs ou par des entreprises qui essayent de travailler pour le bien commun –, d’autre part, les usages individuels qui peuvent parfois relever de cet esclavage moderne.</p>
<p>La mode et la diffusion des photos de chatons sur les <a href="https://theconversation.com/fr/topics/reseaux-sociaux-20567">réseaux sociaux</a> sont très coûteuses sur le plan écologique, pour un gain économique qui ne repose que sur les recettes publicitaires. Au contraire, lors de la pandémie de Covid-19, les centres de calcul ont permis de simuler et de comprendre les modes de diffusion de la maladie, de suivre l’évolution des variants, de manière indéniablement efficace.</p>
<p>Dans les deux cas (la publicité et la recherche sur le Covid-19), tout cela est rendu possible par les algorithmes d’<a href="https://theconversation.com/fr/topics/intelligence-artificielle-ia-22176">intelligence artificielle</a> (IA). Ce sont donc aussi ces <a href="https://theconversation.com/fr/topics/algorithmes-24412">algorithmes</a>, dont nous critiquons l’usage sur les réseaux sociaux, qui nous ont permis de sortir de la pandémie en deux ans, avec un nombre de victimes qui, malgré, tout reste limité – dix fois moins, par exemple, que la grippe espagnole du début du XX<sup>e</sup> siècle. Grâce aux technologies, nous avons su relativement bien maîtriser une situation potentiellement catastrophique. Cela s’est fait avec ces mêmes centres de calcul très polluants […].</p>
<p>Il faut donc faire la différence entre la photo de chaton qu’on va mettre sur Internet et des <a href="https://theconversation.com/fr/topics/technologies-21576">technologies</a> mises à disposition dans l’intérêt collectif du bien commun, pour problématiser la question du rapport aux technologies sur le plan directement de la philosophie morale et politique. Cela montre encore ici que, par elles-mêmes, les technologies ne posent pas de problème. C’est le rapport que nous entretenons avec elles qui pose problème, par rapport à nos attentes, par rapport à la conformation à des groupes, par rapport à la mode, etc.</p>
<h2>Fonctionnalisme</h2>
<p>On peut, comme on vient de le voir, problématiser la question sur le plan de la philosophie morale et politique, mais on peut aussi la problématiser sur le plan que l’on peut qualifier d’« épistémologique », c’est-à-dire qui concerne la solidité de nos savoirs. Il y a sur ce sujet une réflexion tout à fait fondamentale d’un philosophe peu connu qui s’appelle Jacob Klein. Il observe qu’à partir de la Renaissance, l’élaboration de la physique mathématique sur la base de l’algèbre conduit les sciences à <a href="https://www.scribd.com/document/394805591/Jacob-Klein-Lectures-and-Essays-SJC-St-Johns-College">prendre inévitablement pour but leurs propres méthodes</a>. Il écrit à peu près ceci :</p>
<blockquote>
<p>« Jamais les anciens n’auraient pris la méthode comme but. »</p>
</blockquote>
<p>Il veut dire par là que l’élaboration des sciences modernes a comme adossement sous-jacent l’idée que la méthode est un but. L’idée que le mode de fonctionnement est le but, en quelque sorte, de la recherche. Et s’il y a du vrai dans ce qu’il dit, il est capital de savoir s’en dégager pour n’utiliser la recherche que comme un moyen d’un but autre que la recherche elle-même, qui n’est pas faite pour se servir elle-même, mais bien pour servir la vie en société, le bien commun.</p>
<p>Cela se transpose dans nos vies concrètes, dans la vie sociale, au travers de ce qu’on appelle en sociologie le fonctionnalisme. Le fonctionnalisme c’est une manière d’approcher les organisations qui identifient de manière très convaincante qu’une organisation risque toujours de se prendre pour son propre but.</p>
<h2>La grande déresponsabilisation</h2>
<p>Il y en a un exemple remarquable dans le tout début du film <em>Vol au-dessus d’un nid de coucou</em> de Miloš Forman, avec Jack Nicholson. La scène montrée par Forman au début du film est révélatrice de la difficulté que nous abordons ici. Elle a lieu à un moment où des patients dans un hôpital psychiatrique sont censés prendre du repos. Et l’on voit que le personnel de soins, très subtilement, au lieu d’apaiser les patients, les énerve. Ainsi, les soignants sont de nouveau utiles : on appelle même les brancardiers pour mettre Nicholson dans sa camisole de force.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/LQEYisXqdg8?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Bande-annonce du film <em>Vol au-dessus d’un nid de coucou</em> (1975).</span></figcaption>
</figure>
<p>Nous en rions car c’est un film, mais cela est malheureusement tragiquement vrai, et arrive plus que fréquemment tous contextes confondus : au lieu de faciliter le fonctionnement de la structure, de se mettre au service des usagers, les acteurs agissent de manière à rester utiles, c’est-à-dire à ce que leur fonctionnement soit confirmé dans sa pertinence. Autrement dit, on entretient le problème, parce qu’on en est la réponse. Et il se peut que le problème que l’on entretient ait perdu de sa pertinence, voire soit devenu caduc, n’ait aucun sens, voire n’en ait jamais eu…</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/545476/original/file-20230830-26-dsrqp0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/545476/original/file-20230830-26-dsrqp0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/545476/original/file-20230830-26-dsrqp0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=1121&fit=crop&dpr=1 600w, https://images.theconversation.com/files/545476/original/file-20230830-26-dsrqp0.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=1121&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/545476/original/file-20230830-26-dsrqp0.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=1121&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/545476/original/file-20230830-26-dsrqp0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1409&fit=crop&dpr=1 754w, https://images.theconversation.com/files/545476/original/file-20230830-26-dsrqp0.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1409&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/545476/original/file-20230830-26-dsrqp0.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1409&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">« L’intelligence artificielle n’est pas une question technologique », de Laurent Bibard et Nicolas Sabouret.</span>
<span class="attribution"><a class="source" href="https://editionsdelaube.fr/catalogue_de_livres/lintelligence-artificielle-nest-pas-une-question-technologique/">Éditions de l’aube</a></span>
</figcaption>
</figure>
<p>Des distorsions des systèmes de cet ordre représentent un véritable problème dans notre monde. Et les technologies en sont un rouage de plus en plus central. Elles deviennent un but en soi pour améliorer les capacités de calcul des ordinateurs, de l’IA, etc., indépendamment de l’intérêt que cela puisse apporter aux humains, à la société, au bien commun.</p>
<p>Nous sommes donc, à nouveau, face à un problème fondamentalement humain. Une des manières intéressantes de le poser, c’est de dire que quand on se réfugie dans des théories des systèmes, en n’admettant pas qu’il y a une responsabilité des individus et donc en présupposant que les humains et les individus sont noyés dans les systèmes, on déresponsabilise tout le monde, en jouant de facto le jeu d’une humanité noyée dans les systèmes, dans tout système.</p>
<p>Les théories qui n’insistent que sur l’aspect systémique des fonctionnements contribuent à nos aliénations, au fait que nous devenons des rouages dans des machines. Nous devenons les moyens des machines parce que nous nous représentons que nous sommes dominés par les systèmes.</p><img src="https://counter.theconversation.com/content/212549/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>L’essor des algorithmes est aujourd’hui favorisé par une fascination pour la technologie qui éclipse les enjeux d’impact sociaux et environnementaux des outils.Laurent Bibard, Professeur en management, titulaire de la chaire Edgar Morin de la complexité, ESSEC Nicolas Sabouret, Professeur en informatique, Université Paris-SaclayLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2068962023-06-27T18:25:04Z2023-06-27T18:25:04Z« Forçats du numérique » : Comment une décision de justice au Kenya fragilise la sous-traitance des multinationales du web<p>L’histoire commence en mai 2022 au Kenya : Daniel Motaung, un ancien modérateur de contenu de la société locale Samasource Ltd dépose alors une <a href="https://videos-cloudfront.jwpsrv.com/647897f3_5bec6dcbb2468547552b60296026dacc2f4e5165/content/conversions/eLnWahTz/videos/YkrYeJro-33331102.mp4">plainte</a> (<em>petition</em> en anglais) contre ses dirigeants, ainsi que leurs donneurs d’ordre, de nombreux géants du web, dont Meta (la société mère de Facebook).</p>
<p>Dans cette plainte, Daniel Motaung accuse Sama et Meta de traite d’êtres humains, de démantèlement de syndicats et de ne pas fournir un soutien adéquat en matière de santé mentale.</p>
<p>Sama – leader dans le domaine de l’annotation – emploie des <a href="https://cset.georgetown.edu/wp-content/uploads/Key-Concepts-in-AI-Safety-Specification-in-Machine-Learning.pdf">« étiqueteurs »</a>, qui ont pour mission de visionner et de taguer des contenus très éclectiques, souvent consternants, parfois extrêmement violents, provenant de divers réseaux sociaux et d’internet. L’objectif : modérer les contenus sur les réseaux sociaux et fournir des bases de données équilibrées pour l’apprentissage des intelligences artificielles.</p>
<p>Neuf mois, plus tard, le 6 février 2023, une première décision historique a été rendue par le juge <a href="http://kenyalaw.org/caselaw/cases/view/250879/">kényan Jakob Gakeri</a> : ce dernier a statué sur le fait que les cours kényanes étaient compétentes pour juger des sociétés étrangères dont des filiales se trouvent au Kenya, ainsi que la responsabilité des donneurs d’ordre. La procédure est en cours pour de nouvelles audiences.</p>
<p>C’est la première fois qu’une telle affaire est jugée dans les pays où vivent ces « forçats du numérique », et que le jugement se fait selon les termes de la plainte déposée. Une façon d’exposer à la planète entière les coûts humains du numérique.</p>
<h2>Les termes de la plainte</h2>
<p>Sama fait ainsi travailler des milliers d’opérateurs venant de toute l’Afrique subsaharienne pour modérer et étiqueter des contenus des géants du web comme Meta, Microsoft et OpenAI (la société à l’origine de ChatGPT) dans le cadre de « partenariats d’externalisation ». Cette dernière a d’ailleurs <a href="https://time.com/6247678/openai-chatgpt-kenya-workers/">confirmé</a> que les employés de Sama l’avaient aidé à filtrer certains contenus toxiques.</p>
<p>Le juge a entériné les termes de la pétition sur la violation des droits constitutionnels de ces opérateurs, et dénonce ainsi les conditions matérielles et psychologiques déplorables dans lesquelles ils travaillent.</p>
<p>Avec cette décision, le juge a aussi retenu le bien-fondé des termes de la demande qui, élaborant sur les salaires insuffisants pour vivre décemment à Nairobi, sur la détresse psychologique des salariés (le demandeur souffrant de troubles du stress post-traumatique – selon ses conseils) et sur la définition du <a href="https://www.unodc.org/documents/e4j/tip-som/Module_6_-_E4J_TiP-_final_FR_final.pdf">Haut-Commissariat des Nations unies aux Droits de l’Homme</a> (HCDH), soutenait que la situation vécue par les étiqueteurs pouvait être qualifiée d’exploitation en vue d’un gain économique, en d’autres termes, de « traite d’êtres humains »… d’autant plus que les soutiens psychologiques contractuellement annoncés n’auraient jamais été mis en œuvre (à nouveau, selon les attendus de la pétition et les termes des conseils du demandeur).</p>
<p>Meta a tenté de faire appel de cette décision du juge Gakeri afin d’éviter le procès, sans succès. De plus, suite à cette décision du juge Gakeri, le contrat de Sama avec Meta a été annulé, et le repreneur, Majorel, aurait essayé de blacklister les étiqueteurs de Sama. Deux cent d’entre eux ont porté plainte contre Meta et Sama pour licenciement abusif, dans une autre procédure.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/enquete-derriere-lia-les-travailleurs-precaires-des-pays-du-sud-201503">Enquête : derrière l’IA, les travailleurs précaires des pays du Sud</a>
</strong>
</em>
</p>
<hr>
<h2>L’étiquetage des données permet les services de modération du web et l’apprentissage des systèmes d’IA</h2>
<p>Cette décision du juge Gakeri – et les suivantes – pourrait avoir un impact majeur sur les services de modération portés par les grandes plates-formes Internet, en particulier celles qui utilisent l’intelligence artificielle.</p>
<p>En effet, l’<a href="https://ieeexplore.ieee.org/abstract/document/6685834">étiquetage précis des données est essentiel pour que les algorithmes d’intelligence artificielle puissent apprendre et arbitrer correctement leurs résultats</a> : par exemple, si une image est étiquetée « route » alors qu’il s’agit d’un mur, l’IA équipant une voiture autonome pourrait se tromper et provoquer un accident.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/comment-fonctionne-chatgpt-decrypter-son-nom-pour-comprendre-les-modeles-de-langage-206788">Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage</a>
</strong>
</em>
</p>
<hr>
<p>L’étiquetage des données consiste à fournir des informations pour aider les machines à apprendre à partir de données brutes comme des images, des fichiers texte et des vidéos. Cependant, <a href="https://theconversation.com/intelligence-artificielle-les-defis-de-lapprentissage-profond-111522">différents types d’apprentissages</a> existent (supervisé, semi-supervisé, par renforcement…) et on a besoin de plus ou moins de données en fonction de l’expérience utilisateur escomptée.</p>
<h2>L’étiquetage des données est source de valeur pour les acteurs du numérique</h2>
<p>Ces informations viennent des bases de données constituées par les géants du net lors d’opérations d’étiquetage et de <a href="https://link.springer.com/chapter/10.1007/978-3-319-67256-4_32">modération des contenus</a>. Celles-ci sont censées prévenir et protéger tous les individus d’un accès non désiré à certaines données – comme une vidéo de décapitation par exemple – en créant et complétant les <a href="https://citeseerx.ist.psu.edu/document?repid=rep1&type=pdf&doi=3363e2b897cdfe9f8dcb546ac420d28584867a27">métadonnées</a>, des données qui informent sur le contenu du fichier associé. Cette méthodologie a permis la création d’immenses bases de métadonnées, informées – et informant – en temps réel de la nature des contenus transitant par les réseaux.</p>
<p>Les métadonnées font le lien entre contenu et information, ce qui a permis de rénover le modèle économique des acteurs du web et des <a href="https://theconversation.com/la-moderation-des-contenus-est-elle-compatible-avec-lactivite-commerciale-des-reseaux-sociaux-199573">réseaux</a>, qui ont réalisé la <a href="https://www.inderscienceonline.com/doi/abs/10.1504/IJMSO.2007.019442">valeur de ces métadonnées</a>. En effet, celles-ci peuvent servir à entraîner certains algorithmes d’intelligence artificielle : ce n’est pas un hasard si Facebook a changé son nom pour Meta. Les coûts de la modération sont colossaux, car pour que les algorithmes de modération soient précis et efficaces, les données doivent être soigneusement contrôlées et décrites – une tâche qui nécessite une analyse de haute qualité et donc <a href="https://heinonline.org/HOL/LandingPage?handle=hein.journals/hjl58&div=7&id=&page=">onéreuse</a> – et ce d’autant plus qu’elle doit faire l’objet de validations multiples afin d’éviter les <a href="https://doi.org/10.1016/j.bpg.2020.101712">biais des étiqueteurs</a>.</p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>Sous réserve de maintenir la qualité, ces coûts se sont donc transformés en valeur pour les géants du net. En effet, un algorithme mal entraîné peut rapidement devenir <a href="https://arxiv.org/abs/2303.01325">toxique</a>, <a href="https://theconversation.com/ia-et-moderation-des-reseaux-sociaux-un-cas-decole-de-discrimination-algorithmique-166614">biaisé</a> ou même produire des <a href="https://ccforum.biomedcentral.com/articles/10.1186/s13054-023-04473-y">hallucinations</a> (c’est-à-dire créant des résultats qui ne correspondent à aucune donnée sur laquelle l’algorithme a été entraîné, ou qui ne suivent aucun autre modèle discernable). Ceci détériore la confiance dans les contenus, ce qui affecte l’audience et donc l’intérêt des annonceurs.</p>
<p>Du côté des algorithmes d’apprentissage des systèmes d’IA, comme leur <a href="https://scholar.google.com/scholar_url?url=https://dl.acm.org/doi/abs/10.1145/3544548.3580805&hl=fr&sa=T&oi=gsb&ct=res&cd=1&d=3898150833569525423&ei=kKZ1ZKfsIu3AsQKExJC4Cg&scisig=AGlGAw9vGHbPuCjU2ICSUe-bVyzP">crédibilité est avant tout fondée sur la capacité à fournir des réponses plausibles et précises</a>, une <a href="https://arxiv.org/abs/2301.09902">tâche impossible</a> sans données bien étiquetées.</p>
<p>Pour ces différentes raisons, une bonne qualité d’étiquetage nécessite un grand nombre d’étiqueteurs. En d’autres termes, cette <a href="https://www.imf.org/en/Publications/fandd/issues/2020/12/rethinking-the-world-of-work-dewan">industrie est à forte intensité de main-d’œuvre</a>… d’autant qu’au moins <a href="https://www.internetlivestats.com/google-search-statistics/">10 % à 15 % des données crées chaque jour sont nouvelles et uniques</a>.</p>
<h2>Quel modèle économique pour l’étiquetage ?</h2>
<p>Les industriels cherchent à trouver un équilibre entre la nécessité d’innover et le coût de cette innovation. Par exemple, le <a href="https://www.govtech.com/question-of-the-day/how-much-does-it-cost-to-run-chatgpt-per-day">fonctionnement de ChatGPT coûte 700 000 dollars par jour sans amélioration des modèles</a>, alors que pour encourager <a href="https://journals.sagepub.com/doi/10.1177/1461444816629474">l’adoption</a> d’un outil numérique, on considère généralement que le prix doit être modéré pour l’utilisateur (environ 20 euros par mois pour ChatGPT+ par exemple).</p>
<p>Les coûts de main-d’œuvre (d’étiquetage) représentent une <a href="https://www.jstor.org/stable/j.ctv1ghv45t">grande partie des dépenses dans ce secteur</a>. Dans une approche un <a href="https://link.springer.com/content/pdf/10.1007/978-3-030-58675-1_2-1.pdf">peu obsolète de la division du travail</a> et de réduction des coûts, l’étiquetage a donc été sous-traité à des acteurs spécialistes comme Sama aux États-Unis ou Majorel au Luxembourg, qui disposent de filiales au Kenya.</p>
<p>Ce travail implique une exposition continue à des images, des sons, des contenus parfois insoutenables. Dans le cas Sama, il a été rémunéré à hauteur de 1,5 euro de l’heure après impôts – soit moins de la moitié du salaire moyen dans le secteur informatique kenyan qui est à <a href="https://kenya.paylab.com/salaryinfo/information-technology">4,3 euros de l’heure</a>.</p>
<p>Ce sont les conditions de cette sous-traitance qui sont à l’origine de la décision du Juge Gakeri.</p>
<h2>Les impacts des décisions des juges</h2>
<p>L’originalité de cette lecture juridique tient au fait qu’elle bat en brèche la stratégie usuelle des entreprises du secteur des technologies de l’information, qui sont de fait des entreprises de main-d’œuvre, mais qui refusent d’être qualifiées comme telles et dissimulent leurs importants besoins humains derrière une chaîne de sous-traitants – bien loin des <a href="https://cup.columbia.edu/book/in-the-name-of-humanity/9780231110204">productions sans humains fantasmées à la fin du XXᵉ siècle</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/532160/original/file-20230615-23-cdzd6y.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="maison de poupée représentant un sweat shop, atelier de couture" src="https://images.theconversation.com/files/532160/original/file-20230615-23-cdzd6y.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/532160/original/file-20230615-23-cdzd6y.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=480&fit=crop&dpr=1 600w, https://images.theconversation.com/files/532160/original/file-20230615-23-cdzd6y.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=480&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/532160/original/file-20230615-23-cdzd6y.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=480&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/532160/original/file-20230615-23-cdzd6y.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=603&fit=crop&dpr=1 754w, https://images.theconversation.com/files/532160/original/file-20230615-23-cdzd6y.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=603&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/532160/original/file-20230615-23-cdzd6y.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=603&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Les filiales de sous-traitance pour l’étiquetage des données du web sont-elles les nouveaux sweat shops ? Ici une maison de poupées présentée au Great American Dollhouse Museum.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Dollhouse-sweatshop.jpg">Photomatters/Wikipedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Cette pratique constitue un <a href="https://link.springer.com/chapter/10.1007/978-3-319-58643-4_3">non-sens économique</a>, puisque c’est la connaissance, la maîtrise sur toutes leurs phases des processus productifs et leur optimisation qui permettent la consolidation des marges et la pérennisation des modèles concernés.</p>
<p>Peut-être que la position du juge Gakeri apportera aux multinationales du web une aide précieuse en matière d’amélioration de leur rentabilité et de leur modèle économique. Toujours est-il que désormais, le donneur d’ordre sera autant responsable et justiciable que son prestataire en matière de conditions de travail, voire davantage.</p>
<p>On scrute aujourd’hui l’impact environnemental d’une structure dans toutes ses ramifications planétaires. Évaluera-t-on demain la responsabilité sociale des entreprises de la même manière, en considérant le processus de production des technologies de l’information comme un tout mondialisé ?</p>
<h2>Au-delà de l’éthique des usages de l’IA, faut-il inventer une éthique des processus de sa fabrication ?</h2>
<p>L’usage des technologies d’intelligence artificielle soulève déjà des questions éthiques, par exemple celle d’<a href="https://www.tandfonline.com/doi/full/10.1080/0960085X.2021.1960905">utiliser ou non la décision algorithmique pour établir des demandes de remboursement de prestations sociales</a>.</p>
<p>On voit désormais émerger le besoin impérieux d’une <a href="https://link.springer.com/article/10.1007/s43681-021-00084-x">éthique de la <strong>production</strong> des systèmes d’intelligence artificielle</a>, car ici l’absence d’éthique sanctionne en temps réel la qualité et la confiance que l’on peut avoir dans les algorithmes produits. Si un <a href="https://link.springer.com/article/10.1007/s10677-016-9745-2">algorithme mal entraîné</a> peut demain faire dérailler un train ou une chaîne de production, la qualité de l’annotation devient non négociable – et cette activité demande mieux et plus que les conditions constatées au Kenya.</p>
<p>Le procès en cours depuis mars (puisque le juge a validé la compétence des cours kényanes dans ce domaine) changera peut-être la donne. D’autres secteurs confrontés à ces problématiques, la mode par exemple, ont <a href="https://www.emerald.com/insight/content/doi/10.1108/JFMM-05-2015-0040/full/html?fullSc=1">amélioré leurs pratiques, la transparence de leurs fournisseurs et de leurs méthodologies de productions</a>, notamment du fait d’opérations massives de « Name and shame » par la société civile, qui ont amené progressivement des utilisateurs finaux à se détourner des marques non vertueuses (sans pour autant que ces dernières ne le deviennent toutes).</p>
<p>Il n’est pas certain que, dans le domaine des technologies de l’information et d’intelligence artificielle, l’utilisateur final puisse effectuer ce type d’arbitrage, car ceux-ci deviennent de plus en plus partie intégrante des outils de productivité informatique utilisés quotidiennement par tous. En outre, les critères constituant les processus de production éthiques de l’IA demeurent à inventer. L’affaire en cours pourrait-elle constituer une bonne motivation pour penser à ces derniers ?</p><img src="https://counter.theconversation.com/content/206896/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de ses recherches, notamment sur les questions relatives à l'éthique de l'intelligence artificielle et des algorithmes. </span></em></p>Des plaintes récentes au Kenya exposent les coûts humains de l’IA et de la modération du web, dissimulés dans des chaines de sous-traitance.Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES EducationLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2056682023-06-22T19:01:14Z2023-06-22T19:01:14ZClonage de voix et synthèse vocale : des IA qui parlent (presque) comme des humains<figure><img src="https://images.theconversation.com/files/532681/original/file-20230619-25-4hbzfz.jpg?ixlib=rb-1.1.0&rect=3%2C1%2C1019%2C677&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Une start-up a fait revivre le jeune Luke Skywalker en rajeunissant la voix de l’acteur Mark Hamill pour la série The Mandalorian.</span> <span class="attribution"><a class="source" href="https://www.nationaalarchief.nl/en/research/photo-collection/acf09df8-d0b4-102d-bcf8-003048976d84?searchKey=56fe7189ef531ee586b71e680694aec8">Nationaal Archief, Pays-Bas</a></span></figcaption></figure><p>Redécouvrir une personnalité disparue le temps d’une émission ou d’un long métrage… c’est ce que l’IRCAM parvient à faire grâce aux dernières avancées en « clonage de la voix » (ou <em>voice cloning</em>) : <a href="https://www.francetvpro.fr/contenu-de-presse/36640384">Dalida dans l’émission <em>Hôtel du Temps</em></a> animée par Thierry Ardisson, <a href="https://www.sciencesetavenir.fr/high-tech/pourquoi-j-ai-pas-mange-mon-pere-comment-l-ircam-refait-parler-louis-de-funes_35858">Louis de Funès dans le film <em>Pourquoi j’ai pas mangé mon père</em></a> réalisé par Jamel Debbouze, ou encore le général de Gaulle dans une <a href="https://www.lemonde.fr/international/article/2023/01/18/comment-le-monde-a-tente-de-recreer-l-appel-du-18-juin-en-reproduisant-la-voix-du-general-de-gaulle_6158271_3210.html">reconstitution de l’appel du 18 juin 1940</a>.</p>
<p>Le <a href="https://arxiv.org/abs/2106.15561">clonage et la synthèse vocale</a> sont des technologies basées sur des systèmes d’intelligence artificielle. Elles gagnent en maturité et sont amenées à faire progressivement partie de notre quotidien.</p>
<p>La synthèse vocale, ou <em>text-to-speech</em>, permet aujourd’hui de créer une grande variété de contenus audio, comme un <a href="https://usbeketrica.com/fr/article/cette-agence-de-k-pop-vient-de-creer-un-girls-band-entierement-virtuel">groupe de musique virtuel</a>, des livres audio ou le doublage en français de films et de jeux vidéo. Par exemple, le doublage de Luke Skywalker dans la série <em>The Mandalorian</em> a été réalisé par la start-up <a href="https://www.respeecher.com/case-studies/respeecher-synthesized-younger-luke-skywalkers-voice-disneys-mandalorian">Respeecher</a>, afin de faire rajeunir la voix de Mark Hamill de 30 ans, pour coller à la version du personnage qu’il a incarné dans les années 80. C’est aussi cette technologie qui permet aux assistants vocaux Siri et Alexa de s’exprimer quand vous leur adressez la parole.</p>
<p>Des dérives, détournements et arnaques sont bien sûr à craindre : il existe déjà de <a href="https://www.lefigaro.fr/secteur/high-tech/deepfake-le-simulateur-de-voix-elevenlabs-s-inquiete-des-abus-20230131">faux enregistrements de personnalités tenant des propos controversés</a> générés par la plate-forme d’<a href="https://beta.elevenlabs.io/">Elevenlabs</a>, ainsi que des arnaques ciblant grandes entreprises (appelées <a href="https://www.lemonde.fr/pixels/article/2019/09/06/deepfake-dupee-par-une-voix-synthetique-une-entreprise-se-fait-derober-220-000-euros_5507365_4408996.html">« arnaque au président »</a>) ou <a href="https://www.bfmtv.com/tech/des-escrocs-arnaquent-des-personnes-en-copiant-numeriquement-la-voix-de-leurs-proches_AV-202303060309.html">particuliers</a>, où un faux proche demande d’urgence une grande somme d’argent.</p>
<p>Mais les technologies de synthèse vocale ont encore une très grande marge de progression : de très grandes quantités de données sont encore nécessaires pour entraîner correctement ces systèmes d’intelligence artificielle, et l’aspect subjectif de la parole rend très complexe un contrôle fin de la voix synthétisée.</p>
<p>En comprenant mieux le fonctionnement de ces technologies et leurs limites actuelles, on peut se faire une idée plus précise des enjeux et des points de vigilance qu’elles suscitent.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/1wGOHbcQKIc?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Un clip de MAVE, un groupe entièrement virtuel, y compris les voix.</span></figcaption>
</figure>
<h2>La synthèse vocale, une des nombreuses applications de l’apprentissage profond</h2>
<p>Les progrès accomplis par l’IA durant ces dernières années sont principalement liés à l’essor de l’<a href="https://theconversation.com/intelligence-artificielle-les-defis-de-lapprentissage-profond-111522">apprentissage profond</a> (<em>deep learning</em>), méthode se basant sur les « réseaux de neurones ».</p>
<p>Bien qu’il s’agisse d’un domaine de recherche très vaste et varié, le principe de fonctionnement reste le même que l’on traite de du texte, de l’image ou de l’audio : on collecte une très grande quantité de données, que l’on essaye d’abstraire sous une forme numérique qui soit facilement manipulable par un ordinateur, et qui puisse être utilisée de façon fiable pour réaliser diverses tâches liées aux données.</p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>La difficulté est de construire correctement cette abstraction, pour qu’elle puisse se généraliser à des cas que l’on n’aurait pas rencontrés dans notre collecte de données. Nous, humains, sommes capables de généraliser des abstractions, par exemple d’associer à un objet des propriétés (couleur, forme, position), et nous pouvons facilement reconnaître ou imaginer ce même objet dans une autre couleur, avec une forme différente, dans une autre position ou un autre lieu, grâce à la représentation abstraite de cet objet et de ses propriétés que nous construisons dans notre cerveau. Si cette généralisation nous est innée, il en va tout autrement pour la machine.</p>
<p>En soi, le <em>deep learning</em> ne constitue pas une approche nouvelle en intelligence artificielle, mais sa force est de pouvoir « apprendre » automatiquement cette abstraction des données observées, et la manière de l’utiliser pour remplir diverses tâches. Les exemples de tâches les plus parlants portent sur les images : classification (est-ce une image de chien ? de chat ?), détection d’objets (y a-t-il un chat sur l’image ? combien ? où ?). Cela fonctionne également dans de très nombreux domaines, comme la voix : identification (qui parle ?), vérification (est-ce bien la bonne personne qui parle ?), transcription (qu’est-ce qui est dit ?), etc.</p>
<h2>De la lecture à haute voix à une voix sur mesure</h2>
<p>Faire lire un texte de façon réaliste et convaincante par une voix artificielle calquée sur une voix réelle s’appelle le « text to speech ». On pourrait par exemple faire dire à ma voix un texte de Shakespeare que je n’ai jamais prononcé. Le réseau de neurones est alors entraîné à calculer une abstraction du texte de Shakespeare, puis à en déduire une vocalisation avec une voix donnée, celle des données d’apprentissage (dans notre exemple, les données seraient de nombreux enregistrements de ma voix).</p>
<p>C’est ce qui permet la vocalisation de contenus textuels, fonctionnalité par exemple connue pour être intégrée dans Google Traduction : tapez un texte, et en un clic vous pouvez écouter sa prononciation dans votre langue ou dans celle traduite.</p>
<p>Sans même fournir de texte, il est également possible de faire de la <a href="https://arxiv.org/pdf/2008.03648.pdf">« conversion de la voix »</a> : transformer une voix pour qu’elle ressemble à une autre. Le réseau de neurones est entraîné à abstraire l’identité du locuteur d’un enregistrement cible, et à abstraire tout le reste depuis un enregistrement source : contenu linguistique, expressivité, rythmique, etc. Ces deux abstractions sont ensuite combinées de la bonne manière afin de produire une synthèse imitant la voix ciblée, sans altérer ce qui entoure la voix source.</p>
<p>Le clonage de la voix va encore plus loin : il rend possible la synthèse vocale d’une voix en se basant sur quelques minutes seulement, voire quelques secondes, d’énoncé de référence de la « voix cible »… mais pour arriver à cette prouesse, le réseau de neurones doit au préalable être entraîné sur des centaines, voire des milliers d’heures d’enregistrements d’autres voix afin d’assimiler un maximum de variabilité dans les voix.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/M32tXDbHwDY?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Clonage de la voix de Dalida dans <em>L’Hôtel du Temps</em>.</span></figcaption>
</figure>
<p>De manière générale, on peut cibler d’autres caractéristiques que l’identité : le <a href="http://proceedings.mlr.press/v80/wang18h/wang18h.pdf">style</a>, la <a href="https://arxiv.org/pdf/2209.01978.pdf">vitesse d’élocution</a> ou encore l’<a href="https://arxiv.org/abs/2010.14794">émotion</a> – autant de types de conversion de la parole et de manière de contrôler la synthèse de la voix. Ces technologies sont encore expérimentales, mais commencent à trouver leur chemin dans l’industrie. On peut citer la start-up <a href="https://coqui.ai/">Coqui</a>, qui propose entre autres un outil de contrôle avancé de la synthèse vocale, en plus du clonage de la voix.</p>
<h2>Les limites de la synthèse vocale et la dépendance aux données annotées</h2>
<p>Des systèmes d’intelligences artificielles sont donc capables d’assimiler et d’abstraire différents concepts (phonèmes, identités, émotions) véhiculés dans la voix pour les manipuler et générer de nouveaux contenus. Mais il faut garder à l’esprit que la capacité de génération des réseaux de neurones se cantonne aux concepts vus durant leur apprentissage. Il faut donc une grande variété de concepts, en quantité suffisante, pour espérer une synthèse naturelle et expressive.</p>
<p>Un très grand volume de données est donc nécessaire (plusieurs centaines d’heures, avec une grande variété de locuteurs différents) pour obtenir un résultat satisfaisant. Ces données d’apprentissage doivent être <a href="https://www.lebigdata.fr/data-labeling">annotées</a> pour mener à bien la phase d’apprentissage : qui parle ? Comment ? Qu’est-ce qui est dit ? À quel moment ? Le caractère subjectif de la parole nous contraint encore dans la majorité des cas à une annotation manuelle de centaines d’heures d’audio, rendant la constitution d’une « bonne » base de données chronophage et peu fiable. Cela réduit également les applications pour les langues pour lesquelles on a peu d’enregistrements vocaux.</p>
<p>En elle-même, la voix est un objet très complexe, avec des dimensions temporelles et subjectives. Encore aujourd’hui, il n’y a pas de cadre précis pour décrire clairement ce qui <a href="https://hal.sorbonne-universite.fr/hal-01464715/document">compose et caractérise une voix</a>. Ainsi, la reproduction d’une voix donnée, que l’on a pas besoin de décrire à la main, est aujourd’hui de plus en plus réaliste. Mais le contrôle précis de ses caractéristiques (que l’on ne sait pas forcément définir) dans la synthèse est encore un problème ouvert. Par conséquent, la création complète d’une voix n’existant pas (génération de locuteur), la description précise de son timbre, son expressivité, <a href="https://research.google/pubs/pub50939/">sont encore des défis à relever</a>). À noter que des méthodes contournant cet écueil sont développées, en permettant la <a href="https://coqui.ai/blog/tts/prompt-to-voice">synthèse d’une voix décrite avec du langage naturel</a>, « avec nos mots ».</p>
<p>Cela nous amène au point commun reliant les éléments cités plus tôt qui ont récemment attiré l’attention du grand public (<a href="https://www.francetvpro.fr/contenu-de-presse/36640384">Hôtel du Temps</a>, <a href="https://www.respeecher.com/case-studies/respeecher-synthesized-younger-luke-skywalkers-voice-disneys-mandalorian">doublage</a>, <a href="https://www.lefigaro.fr/secteur/high-tech/deepfake-le-simulateur-de-voix-elevenlabs-s-inquiete-des-abus-20230131">deepfakes vocaux</a>) : un acteur doit prêter sa voix, apporter ce que l’IA ne maîtrise pas encore (l’émotion l’expressivité), pour que le clonage devienne méprenable. De fait, l’humain est toujours nécessaire pour la création de voix synthétiques expressives. Le <em>text-to-speech</em> peut se passer de notre intervention, mais perd alors de sa naturalité.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/votre-etat-de-sante-dans-votre-voix-152111">Votre état de santé… dans votre voix</a>
</strong>
</em>
</p>
<hr>
<h2>Quels sont les risques soulevés par la synthèse vocale ?</h2>
<p>Récemment, les impressionnantes avancées des modèles génératifs ont engendré beaucoup de bouleversements. Les IA génératives d’images à partir de descriptions textuelles (<a href="https://openai.com/product/dall-e-2">DALL-E 2</a>, <a href="https://www.midjourney.com/home/?callbackUrl=%2Fapp%2F">Midjourney</a>) ont provoqué une vague de protestations de la part d’artistes et illustrateurs, avec notamment le mouvement « <a href="https://www.actuia.com/actualite/no-ai-art-des-milliers-dartistes-protestent-contre-la-position-dartstation-vis-a-vis-des-oeuvres-generees-par-lia/">No to AI generated images</a> » sur la plate-forme Artstation. L’IA générative de texte ChatGPT a de son côté fait grand bruit pour ces capacités conversationnelles plus que convaincantes, et a également fait beaucoup réagir sur les <a href="https://theconversation.com/travail-management-fraude-les-multiples-risques-de-lintelligence-artificielle-pour-les-entreprises-204568">risques</a> qui en découlent.</p>
<p>De la même façon, les IA génératives de parole suscitent des réactions, parfois inquiètes. Les doubleurs notamment, voient leur activité menacée, et commencent à <a href="https://lesvoix.fr/ia-alerte-vol-de-voix/">protéger leur propriété et les droits d’usage de leur voix</a>. Il faudra également faire de preuve de vigilance quant aux <a href="https://www.actuia.com/actualite/usurpations-didentite-deepfakes-les-voix-generees-par-lia-sources-darnaques-de-plus-en-plus-nombreuses/">détournements, arnaques et fraudes rendus possibles grâce à la synthèse vocale</a>. La facilité grandissante de l’accès aux technologies de clonage de la voix et synthèse vocale de bonne qualité fait également craindre une multiplication de faux contenus en ligne, ce qui rendra difficile le travail de vérification de ces sources.</p>
<p>Pour finir, il faut garder à l’esprit que l’IA reste un outil : il faut se méfier pas tant de l’outil que de son usage. Il convient donc d’accroître notre vigilance à l’égard des contenus numériques (audio, images, vidéos), le temps que la <a href="https://www.radiofrance.fr/franceinter/artificial-intelligence-act-voici-ce-que-prepare-l-union-europeenne-pour-encadrer-l-ia-6603830">législation concernant ces technologies</a> se mette en place. On peut également rappeler les bénéfices potentiels de ces outils : <a href="https://blog.etxstudio.com/comment-la-voix-de-synthese-facilite-t-elle-laccessibilite-pour-les-personnes-atteintes-de-troubles-de-la-parole-ou-de-la-vue/">accessibilité et inclusion</a> pour les personnes atteintes de troubles de la vision ou du langage, <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5494021/pdf/nihms831275.pdf">aide à l’apprentissage</a> pour les élèves, ou encore aide à l’<a href="https://scholarspace.manoa.hawaii.edu/server/api/core/bitstreams/8d064a8c-e771-47db-99c0-97fb583a6d2d/content">apprentissage de langues étrangères</a>.</p>
<hr>
<p><em>Cet article est publié en partenariat avec le laboratoire d'Orange Innovation.</em></p><img src="https://counter.theconversation.com/content/205668/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Olivier Zhang a reçu des financements de Orange. </span></em></p>Les technologies de synthèse vocale sont déjà époustouflantes. Quelles sont leurs limites actuelles, et où va la recherche ?Olivier Zhang, Doctorant en IA, Orange Innovation, Université de Rennes 1 - Université de RennesLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2074382023-06-21T18:39:40Z2023-06-21T18:39:40ZComment nous sommes contributeurs des modèles d’IA à notre insu<figure><img src="https://images.theconversation.com/files/533157/original/file-20230621-21-wzm6b4.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">shutterstock</span> </figcaption></figure><p>Vous êtes-vous déjà demandé à quoi servaient les systèmes de détection de « robots » sur les sites web, où l’on vous demande d’identifier sur une image un passage piéton, un feu de circulation ou un animal particulier ? D’ailleurs comment le système vérifie-t-il les réponses données ? Et surtout comment ces données sont-elles utilisées ?</p>
<p><a href="https://www.lemonde.fr/pixels/article/2016/02/10/petite-histoire-des-captchas-ces-tests-d-identification-en-pleine-mutation_4862727_4408996.html">Cette technique</a> a été créée dès le milieu des années 1990, le système est concrétisé et le terme inventé et déposé par des chercheurs de l’université de Canegie-Mellon aux États-Unis en 2000 dans une toute première version, avec pour objectif d’identifier des utilisateurs humains.</p>
<p>Puis les systèmes du type CAPTCHA (<em>Completely Automated Public Turing test to tell Computers and Humans Apart</em>/Test public de Turing entièrement automatisé pour distinguer les ordinateurs des humains) ont été démocratisés par Google en 2009. Le dispositif CAPTCHA ou reCAPTCHA (le nom du système CAPTCHA de Google) fait partie de la famille des tests de Turing. Il est une mesure de sécurité par détection d’utilisateur humain. L’objectif principal est de limiter l’accès et l’interaction de « robots » numériques, des programmes informatiques automatisés (aussi appelés « bots »), avec tout formulaire en ligne. La mesure de sécurité empêche, par exemple, les tentatives répétées de connexion à une page web, le décryptage de votre mot de passe lorsque que vous vous authentifiez en ligne, le remplissage automatisé d’un formulaire, etc.</p>
<figure class="align-center ">
<img alt="Exemples de reCAPTCHA" src="https://images.theconversation.com/files/533162/original/file-20230621-20-hw1fuf.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/533162/original/file-20230621-20-hw1fuf.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=296&fit=crop&dpr=1 600w, https://images.theconversation.com/files/533162/original/file-20230621-20-hw1fuf.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=296&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/533162/original/file-20230621-20-hw1fuf.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=296&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/533162/original/file-20230621-20-hw1fuf.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=372&fit=crop&dpr=1 754w, https://images.theconversation.com/files/533162/original/file-20230621-20-hw1fuf.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=372&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/533162/original/file-20230621-20-hw1fuf.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=372&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Exemples de reCAPTCHA.</span>
<span class="attribution"><span class="source">Google</span></span>
</figcaption>
</figure>
<p>Tout d’abord sous la forme d’un texte manuscrit à retranscrire, ou encore un numéro de rue à identifier depuis une photo, les systèmes d’aujourd’hui utilisent davantage la reconnaissance visuelle d’un objet parmi un ensemble d’images ou dans une même image. Le système reCAPTCHA est proposé par Google à titre gratuit pour les gestionnaires de site web, ainsi que leurs utilisateurs.</p>
<h2>Un intérêt pour Google</h2>
<p>Son caractère gratuit est utile, certes. Néanmoins il sert également aux intérêts de Google. Bien que son usage <a href="https://web.stanford.edu/%7Ejurafsky/burszstein_2010_captcha.pdf">comme mesure de sécurité</a> soit indéniable, son utilisation répandue permet également de contribuer à la reconnaissance de contenus. C’est ce que l’on désigne comme l’étape de labellisation, indispensable pour alimenter des modèles d’apprentissage en IA, et notamment le Machine Learning.</p>
<p>Pour exemple, le système reCAPTCHA a permis dès 2011 de digitaliser l’ensemble des archives de Google Books, ainsi que 13 millions d’articles issus du catalogue du New York Times remontant à 1851. Mais dès 2017, les modèles d’apprentissage se sont montrés capables de <a href="https://www.science.org/doi/10.1126/science.aag2612">résoudre les tests CAPTCHA initiaux basés sur des images de texte</a>. La seconde version s’est davantage orientée vers l’utilisation d’images ou de morceaux d’images, comme l’illustre la seconde image dans cet article.</p>
<h2>Qu’est-ce que le Machine Learning et comment cela fonctionne-t-il ?</h2>
<p>Les modèles de Machine Learning constituent une des briques les plus utilisées aujourd’hui en intelligence artificielle. Également communément appelé apprentissage machine, cette approche permet d’entraîner un modèle, dans notre cas de reconnaissance d’image ou de texte à partir d’un jeu de données initial alimentant le modèle. À partir de ces données d’entrée, le modèle définit ainsi mathématiquement un ensemble de critères pour permettre d’estimer une probabilité de similarité. Plus le modèle dispose d’un grand volume et d’une grande variété de données en entrée, plus le modèle enrichira la définition de ces critères d’évaluation. Mais un modèle de ce type est entraîné pour reconnaître un élément spécifique (un objet, un visage, un comportement, un mouvement de fonds financier, etc.) qui est défini dès sa conception.</p>
<p>En apprentissage supervisé, c’est le concepteur du modèle qui définit les critères à évaluer en fournissant un ensemble de données d’entraînement préidentifiées. Cette identification préalable correspond à la labellisation des données d’entrée. Lors de son entraînement, le modèle associera ainsi les données fournies à leur labellisation spécifique pour construire une matrice de critères.</p>
<p>La labellisation des données d’entrée constitue donc un élément essentiel pour d’entraînement, notamment des modèles de reconnaissance visuelle.</p>
<h2>Un enjeu de taille pour l’entraînement des modèles d’IA</h2>
<p>Le volume et la variété des données collectées aujourd’hui sont plus que gigantesques, et cette labellisation ne peut se faire exclusivement de manière automatisée par une machine. Ainsi l’intervention d’un acteur humain est nécessaire pour traiter et labelliser l’ensemble de ces données.</p>
<p>C’est ce qu’il se passe lorsque vous utilisez un système du type reCAPTCHA. Celui-ci collecte ainsi les contributions de chacun pour labelliser et classifier les images proposées. La machine aura effectué un prétraitement, mais l’intervention humaine permet de confirmer cette classification initiale. Démultipliez cela par le nombre d’utilisateurs en variant les propositions d’images, et vous obtenez ainsi un système de confirmation optimisé à moindre coût. La démultiplication est nécessaire afin de garantir au maximum la véracité des données collectées. En effet, la qualité des données d’entrée pour ces modèles est essentielle, et est l’un des principaux enjeux aujourd’hui de la conception et de l’utilisation pertinente des modèles d’intelligence artificielle.</p>
<p>Ces labellisations contribuent ainsi l’amélioration des données d’entraînement destinées à Google Maps, au moteur de recherche d’images de Google ou encore aux modèles qui seront peut-être à terme utilisés par les véhicules autonomes (et notamment le projet <a href="https://waymo.com/">Waymo</a> de Google).</p>
<h2>Les travailleurs du clic</h2>
<p>Une partie de ces tâches est réalisée par les utilisateurs du web au quotidien, sans même le savoir comme nous l’avons vu précédemment. Néanmoins certaines actions sont réalisées à la chaîne par des personnes très faiblement rémunérées et à la tâche pour le faire, comme l’a révélé récemment une <a href="https://time.com/6247678/openai-chatgpt-kenya-workers/">enquête publiée</a> par Time Magazine sur les travailleurs nigérians, contributeurs de ChatGPT.</p>
<p>Ces travailleurs du clic font partie intégrante du bon fonctionnement de ces modèles d’IA. Antonio Casilli, chercheur et professeur de sociologie à Telecom Paris, a depuis longtemps travaillé sur le sujet, mettant en avant notamment cette approche et les <a href="http://www.casilli.fr/2014/12/05/no-captcha-is-google-jargon-for-mechanical-turk-for-free/">pratiques des plates-formes numériques</a> comme Google (Alphabet), Facebook (Meta), ou encore Amazon.</p>
<p>Difficile cependant de définir la part de l’un et de l’autre sur l’ensemble du système et des acteurs aujourd’hui impliqués.</p>
<p>Il s’avère que cette forme de microtravail rémunéré, où les contributions des utilisateurs (non rémunérées), sont indispensables pour alimenter les modèles que l’on connaît, et couvre d’ailleurs différents aspects de contribution. Comme l’explique <a href="https://hal.science/hal-02554196/document">l’article</a> publié en 2020 par Poala Tubaro, Antonio Casilli et Marion Coville, ces contributions à la marginalisation et à la précarisation d’une partie non négligeable de travailleurs du numérique.</p>
<h2>Des alternatives à ces systèmes</h2>
<p><a href="https://mon-dpo-externe.com/quelles-sont-les-solutions-alternatives-a-google-recaptcha/">Il existe des alternatives</a> au système reCAPTCHA, qui reste néanmoins très largement utilisé. Pour exemple, nous pouvons citer les solutions du type Puzzle CAPTCHA, ou hCAPTCHA. Néanmoins, ces alternatives demandent souvent soit une implémentation à réaliser par le gestionnaire du site web, soit une contribution financière, à comparer avec la gratuité du reCAPTCHA proposée par Google.</p>
<p>De son côté Google travaille également sur une nouvelle version de la solution reCAPTCHA (<a href="https://developers.google.com/search/blog/2018/10/introducing-recaptcha-v3-new-way-to?hl=fr">v3</a>). Cette version permettrait de s’affranchir de l’interruption de navigation imposée par la v2 avec son popup, en calculant un score permettant de déterminer si le comportement observé sur un site web est davantage lié à un humain ou un bot.</p><img src="https://counter.theconversation.com/content/207438/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Benoit Loeillet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Le système CAPTCHA permet, pour un site Internet, de valider que l’utilisateur est un humain et pas un robot. Derrière cette fonction se cache un travail bien utile pour les géants de la tech.Benoit Loeillet, Associate professor, EM Lyon Business SchoolLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2071662023-06-19T17:50:05Z2023-06-19T17:50:05ZChatGPT : face aux artifices de l’IA, comment l’éducation aux médias peut aider les élèves<p>Qui n’a jamais entendu parler de <a href="https://theconversation.com/de-cambridge-analytica-a-chatgpt-comprendre-comment-lia-donne-un-sens-aux-mots-205534">ChatGPT</a>, cette intelligence artificielle générative, capable de répondre par des textes complexes aux requêtes lancées par des internautes ? La sortie en décembre 2022 de ce logiciel conçu par la société OpenAI a suscité une multitude d’articles, entre visions de catastrophe et utopie, produisant une panique médiatique, comme l’illustre la <a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/">lettre ouverte de mars 2023 demandant un moratoire dans le développement de ce type de systèmes</a>, signée par un millier de chercheurs.</p>
<p>Comme le montre une <a href="https://www.cjr.org/tow_center/media-coverage-chatgpt.php">étude de la <em>Columbia Journalism Review</em></a>, la panique n’a pas commencé en décembre 2022 avec l’événement lancé par OpenAI mais en février 2023 avec les annonces de Microsoft et Google, chacun y allant de son chatbot intégré dans leur moteur de recherche (Bing Chat et Bard, respectivement). La couverture médiatique opère un brouillage informationnel, se focalisant davantage sur le potentiel remplacement de l’humain que sur la réelle concentration de la propriété de l’IA dans les mains de quelques entreprises.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/comment-fonctionne-chatgpt-decrypter-son-nom-pour-comprendre-les-modeles-de-langage-206788">Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage</a>
</strong>
</em>
</p>
<hr>
<p>Comme toute panique médiatique (les plus récentes étant celles sur la <a href="https://theconversation.com/fr/topics/realite-virtuelle-26557">réalité virtuelle</a> et le <a href="https://theconversation.com/sur-quelles-technologies-les-metavers-reposent-ils-177934">métavers</a>), elle a pour but et effet de créer un débat public permettant à d’autres acteurs que ceux des médias et du numérique de s’en emparer. Pour l’éducation aux médias et à l’information (EMI), les enjeux sont de taille en matière d’interactions sociales et scolaires, même s’il est encore trop tôt pour mesurer les conséquences sur l’enseignement de ces modèles de langage générant automatiquement des textes et des images et de leur mise à disposition auprès du grand public.</p>
<p>En parallèle des <a href="https://www.francetvinfo.fr/internet/reconnaissance-faciale-deepfakes-chatgpt-comment-l-union-europeenne-veut-reguler-l-intelligence-artificielle_5885762.html">actions politiques de régulation</a>, l’EMI permet aux citoyens de se prémunir des risques liés à l’usage de ces outils, en développant leur esprit critique et en adoptant des stratégies d’usages appropriées et responsables. <a href="https://savoirdevenir.net/2022/05/algo-litteratie-pour-tous-en-10-points-cles/">L’algo-littératie</a>, ce sous-champ de l’EMI qui considère ce que les data font aux médias, permet d’appliquer ces clés de lecture à l’IA. Voici quatre directions dans lesquelles l’EMI peut nous aider à nous retrouver dans ces chaînes d’interactions algorithmiques, de leurs productions à leurs publics.</p>
<h2>Tenir compte de la géopolitique de l’IA</h2>
<p>Ce sont les entreprises contrôlant les moteurs de recherche et donc l’accès à l’information, Google et Microsoft, qui ont le plus à gagner dans le développement des IA génératives. Elles s’organisent, à l’américaine, en duopole, avec un (faux) challenger, <a href="https://openai.com/blog/openai-lp">OpenAI LP</a>. Il s’agit en fait du bras commercial du laboratoire initialement à but non lucratif OpenAI (financé par Microsoft en grande partie).</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/_OWdhQp9QYU?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">UE et IA : la régulation au menu des députés européens (TV5 Monde, juin 2023).</span></figcaption>
</figure>
<p>Une autre histoire peut être racontée, surtout par les médias, celle de l’incroyable concentration de pouvoir et d’argent par un très petit nombre d’entreprises de la <a href="https://www.seuil.com/ouvrage/la-tech-olivier-alexandre/9782021520187">Silicon Valley</a>. Elles se donnent le monopole de l’accès à l’information et de toutes les productions en découlant. Elles alimentent la concurrence frontale entre États-Unis et Chine sur le sujet. La stratégie de Google et Microsoft a en effet pour but de couper l’herbe sous les pieds du gouvernement chinois, qui ne cache pas <a href="https://oecd.ai/en/dashboards/countries/China">ses ambitions en matière de développement de l’IA</a>.</p>
<p>L’option d’une pause ou d’un moratoire relève de la chimère, face à ce qui est l’équivalent d’une course aux armements. Les inventeurs eux-mêmes, en apprentis sorciers repentis, dont Sam Altman le directeur général de OpenAI, ont proposé en mai 2023 <a href="https://openai.com/blog/governance-of-superintelligence">« une gouvernance de l’IA »</a>. Mais ne serait-ce pas dans l’espoir de ne pas subir de plein fouet une réglementation gouvernementale qui leur échapperait et mettrait un frein à leurs intentions commerciales ? L’Union européenne a anticipé en préparant un <a href="https://www.radiofrance.fr/franceinter/artificial-intelligence-act-voici-ce-que-prepare-l-union-europeenne-pour-encadrer-l-ia-6603830">règlement IA</a> pour réguler les usages de cette nouvelle évolution du numérique.</p>
<h2>S’interroger sur la qualité des textes et des images fournis</h2>
<p>Tout ce qui est plausible n’est pas nécessairement porteur de sens. L’IA qui pilote le logiciel ChatGPT fait des propositions sur la base de requêtes et elles apparaissent rapidement… dans un langage plutôt stylé et de bonne tenue ! Mais cela peut générer des erreurs, comme l’a compris, à son grand dam, un avocat de New York qui avait monté un <a href="https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html">dossier truffé de faux avis judiciaires</a> et de fausses citations juridiques.</p>
<p>Il faut donc se méfier de la pseudo-science générée par l’IA. Les contenus proposés peuvent présenter des biais car ils sont issus de l’exploitation d’énormes banques de données. Celles-ci incluent des ensembles de data avec des sources de toutes sortes… dont les médias sociaux ! La dernière version gratuite de ChatGPT s’appuie sur des données qui s’arrêtent à début 2022, donc pas vraiment au point sur l’actualité.</p>
<p>Ces banques de données sont pour beaucoup issues des pays anglophones, avec les biais algorithmiques attenants. De fait ChatGPT risque de créer de la désinformation et de se prêter à des usages malveillants ou d’amplifier les croyances de ceux qui l’utilisent.</p>
<p>Il est donc à utiliser comme tout autre instrument, comme un dictionnaire auprès duquel faire une recherche, élaborer un brouillon… sans lui confier de secrets et de données personnelles. Lui demander de produire ses sources est une bonne consigne, mais même cela ne garantit pas l’absence de filtres, le robot conversationnel ayant tendance à produire une liste de sources qui ressemblent à des citations mais ne sont pas toutes de vraies références.</p>
<p>Par ailleurs, il ne faut pas oublier les <a href="https://www.clubic.com/chatgpt/actualite-458292-oui-chatgpt-est-deja-l-auteur-ou-le-co-auteur-de-nombreux-livres-sur-le-kindle-store.html">problèmes de droits d’auteur</a> qui ne vont pas tarder à rentrer en action.</p>
<h2>Se méfier des imaginaires autour de l’IA</h2>
<p>Le terme d’<em>intelligence artificielle</em> n’est pas approprié pour ce qui relève d’un <a href="https://www.lumni.fr/video/mediatropismes-intelligence-artificielle#containerType=program&containerSlug=mediatropismes">traitement de données préentrainé</a> (le sens de l’acronyme GPT pour <em>generative pre-trained transformer</em>).</p>
<p>Cet anthropomorphisme, qui nous mène à attribuer de la pensée, de la créativité et des sentiments à un agent non humain, est négatif à double titre. Il nous rappelle tous les mythes anxiogènes qui alertent sur la non-viabilité de toute porosité entre le vivant et le non-vivant, du Golem à Frankenstein, avec des peurs d’extinction de la race humaine. Il dessert la compréhension sereine de l’utilité réelle de ces transformateurs à grande échelle. La science-fiction ne permet pas de comprendre la science. Et donc de formuler des repères éthiques, économiques, politiques.</p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>Ces imaginaires, pour actifs qu’ils soient, doivent être démystifiés. Ladite « boite noire » de l’IA générative est plutôt simple dans son principe. Les modèles de langage à grande échelle sont des algorithmes entraînés à reproduire les codes du langage écrit (ou visuel). Ils parcourent des milliers de textes sur Internet et convertissent une entrée (une séquence de lettres par exemple) en une sortie (sa prédiction pour la lettre suivante).</p>
<p>Ce que l’algorithme génère, à très grande vitesse, c’est une série de probabilités, ce que vous pouvez vérifier en refaisant la même requête et en voyant que vos résultats ne sont pas les mêmes. Aucune magie là-dedans, aucune sensibilité non plus, même si l’usager a le sentiment de tenir une « conversation », encore un mot du vocabulaire de l’humain.</p>
<p>Et cela peut être amusant, comme le montre l’IA BabyGPT créé par le <em>New York Times</em>, travaillant sur de petits corpus fermés, pour montrer comment <a href="https://www.nytimes.com/interactive/2023/04/26/upshot/gpt-from-scratch.html">écrire à la manière de Jane Austen</a>, de William Shakespeare ou de J.K. Rowling. Même ChatGPT ne s’y laisse pas prendre : quand on lui demande ce qu’il ressent, il répond, très cash, qu’il n’est pas programmé pour cela.</p>
<h2>Varier les outils</h2>
<p>Les publics de l’IA, notamment à l’école, se doivent donc de développer des connaissances et compétences autour des risques et opportunités de ce genre de robot dit conversationnel. Outre la compréhension des mécanismes du traitement automatique de l’information et de la désinformation, d’autres précautions prêtent à éducation :</p>
<ul>
<li><p>prendre garde au monopole de la requête en ligne, tel que visé par Bing Chat et Google Bard, en jouant de la concurrence entre elles, donc en utilisant régulièrement plusieurs moteurs de recherche ;</p></li>
<li><p>exiger des labels, des codes couleur et autres marqueurs pour indiquer qu’un document a été produit par une IA ou avec son aide est aussi frappé au coin du bon sens et certains médias l’ont déjà anticipé ;</p></li>
<li><p>demander que les producteurs fassent de la rétro-ingénierie pour produire des IA qui surveillent l’IA. Ce qui est déjà le cas avec <a href="https://etedward-gptzero-main-zqgfwb.streamlit.app/">GPTZero</a> ;</p></li>
<li><p>entamer des poursuites judiciaires, en <a href="https://www.zdnet.fr/actualites/une-hallucination-de-chatgpt-vaut-a-openai-des-poursuites-judiciaires-voici-ce-qui-s-est-passe-39959320.htm">cas d’« hallucination » de ChatGPT</a>- - encore un terme anthropomorphisé pour marquer une erreur du système !</p></li>
<li><p>Et se souvenir que, plus on utilise ChatGPT, sous sa version gratuite comme payante, plus on l’aide à s’améliorer.</p></li>
</ul>
<p>Dans le domaine éducatif, les solutions marketing de la EdTech vantent les avantages de l’IA pour personnaliser les apprentissages, faciliter l’analyse de données, augmenter l’efficacité administrative… Mais ces métriques et statistiques ne sauraient en rien se substituer à la validation des compétences acquises et aux productions des jeunes.</p>
<p>Pour tout intelligente qu’elle prétende être, l’IA ne peut remplacer la nécessité pour les élèves de développer leur esprit critique et leur propre créativité, de se former et s’informer en maîtrisant leurs sources et ressources. Alors que la EdTech, notamment aux États-Unis, se précipite pour introduire l’IA dans les classes, d’école primaire au supérieur, la vigilance des enseignants et des décideurs reste primordiale pour préserver les missions centrales de l’école et de l’université. L’intelligence collective peut ainsi s’emparer de l’intelligence artificielle.</p><img src="https://counter.theconversation.com/content/207166/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Divina Frau-Meigs ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Les nouveaux outils d’intelligence artificielle bouleversent l’information et multiplient les pièges en ligne. Quel type de boussole l’éducation aux médias fournit-elle aux élèves dans ce contexte ?Divina Frau-Meigs, Professeur des sciences de l'information et de la communication, Auteurs historiques The Conversation FranceLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2064352023-05-31T16:21:14Z2023-05-31T16:21:14ZPourquoi les IA ne sont ni bienveillantes ni malveillantes<figure><img src="https://images.theconversation.com/files/528301/original/file-20230525-25-nb5u9y.jpg?ixlib=rb-1.1.0&rect=5%2C30%2C1272%2C783&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Seul l’humain est capable de véritablement incarner une bienveillance car c’est un état d’esprit qui lui est propre.
</span> <span class="attribution"><a class="source" href="https://commons.m.wikimedia.org/wiki/File:HUMAN-AI.jpg">Wikimedia commons</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant <a href="https://www.livredepoche.com/livre/ethique-nicomaque-9782253057727">philosophique</a>, elle s’est émancipée dans de nombreuses disciplines telles que la <a href="https://www.cairn.info/revue-rimhe-2020-4-page-53.htm">gestion des ressources humaines</a>, <a href="https://journals.openedition.org/questionsvives/3601">l’éducation</a>, la <a href="https://onlinelibrary.wiley.com/doi/abs/10.1111/jopy.12215">psychologie</a> et s’invite maintenant dans le domaine de <a href="https://www.sciencedirect.com/science/article/pii/S2589004221006477">l’intelligence artificielle</a> (IA).</p>
<p>Aujourd’hui, l’<a href="https://theconversation.com/fr/topics/intelligence-artificielle-ia-22176">IA</a> et ses <a href="https://theconversation.com/fr/topics/algorithmes-24412">algorithmes</a> sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les <a href="https://theconversation.com/fr/topics/voiture-autonome-23710">voitures autonomes</a> constituent quelques exemples connus. L’arrivée récente des IA génératives, comme <a href="https://theconversation.com/fr/topics/chatgpt-133745">ChatGPT</a> ou <a href="https://ai.facebook.com/blog/large-language-model-llama-meta-ai/">LLaMA</a>, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.</p>
<p>Néanmoins, dans quelle mesure peut-on parler de <a href="https://www.lecho.be/entreprises/technologie/le-fondateur-de-linkedin-lance-sa-propre-ia-un-chatbot-bienveillant/10465150.html">bienveillance</a> pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles être considérées comme <a href="https://www.bfmtv.com/tech/nouveautes-produits/une-intelligence-artificielle-malveillante-pourrait-elle-detruire-l-humanite_AN-201605180076.html">malveillantes</a> ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.</p>
<h2>Une représentation partielle du monde</h2>
<p>Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un <a href="https://journals.openedition.org/activites/4941">fort pouvoir de prédication et d’imitation de l’humain</a>.</p>
<p>En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter. </p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un <a href="https://cursus.edu/fr/12768/la-biotique-quest-ce-que-cest">véritable « état symbiotique » entre l’homme et les machines</a>. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés <a href="https://www.lemondeinformatique.fr/actualites/lire-pour-combattre-les-biais-dans-l-ia-il-faut-savoir-manier--l-art-de-la-guerre-89643.html">aux données non neutres</a> qu’elles reçoivent des humains eux-mêmes.</p>
<h2>Esprit de bienveillance</h2>
<p>En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa <a href="https://www.sciencedirect.com/science/article/abs/pii/S0065260108602816">théorie des valeurs humaines basiques</a>. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.</p>
<p>Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; <a href="https://www.lesechos.fr/idees-debats/cercle/opinion-lia-a-t-elle-besoin-de-donnees-oui-mais-pas-forcement-des-votres-963583">elles ont besoin de données générées par l’humain ou son activité</a> pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de <a href="https://hbr.org/2017/04/can-ai-ever-be-as-curious-as-humans">curiosité</a>, de <a href="https://www.cell.com/action/showPdf?pii=S2213-6711%2822%2900598-7">perspicacité</a>, <a href="https://hal.science/tel-04015572/">d’intuition</a> et de <a href="https://theconversation.com/lintelligence-artificielle-est-elle-vraiment-creative-205352">créativité</a> dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/lintelligence-artificielle-est-elle-vraiment-creative-205352">L’intelligence artificielle est-elle vraiment créative ?</a>
</strong>
</em>
</p>
<hr>
<p>Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai <a href="https://www.seuil.com/ouvrage/la-bienveillance-des-machines-pierre-cassou-nogues/9782021452556"><em>La bienveillance des machines</em></a>.</p>
<p>Or, pour être bienveillant, comme l’explique le philosophe <a href="https://theconversation.com/profiles/ghislain-deslandes-244034">Ghislain Deslandes</a>, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/2TC2in46YGs?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Ghislain Deslandes : Les machines (digitales) n’ont aucun esprit ! (Xerfi canal, mai 2023).</span></figcaption>
</figure>
<p>Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.</p>
<h2>La responsabilité humaine comme primauté</h2>
<p>Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (<a href="https://www.cairn.info/revue-droit-sante-et-societe-2021-3-page-64.htm">santé</a>, <a href="https://www.cairn.info/revue-defense-nationale-2019-5-page-107.htm">militaire</a>, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.). </p>
<p>Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse <a href="https://www.sciencesetavenir.fr/sante/cancer/premiere-mondiale-il-sera-bientot-possible-de-diagnostiquer-les-cancers-du-sein-grace-aux-ia_168682">diagnostiquer un cancer</a>) ne fait pas d’elle une IA bienveillante puisque, encore une fois, <a href="https://talan.com/actualites/detail-actualites/news/chatgpt-est-il-un-humain-comme-les-autres/">elle n’est pas un humain comme les autres</a>. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie. </p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/chatgpt-encore-une-revolution-anthropologique-198845">ChatGPT : (encore) une « révolution anthropologique » ?</a>
</strong>
</em>
</p>
<hr>
<p>Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition. </p>
<p>Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre <a href="https://www.xerficanal.com/strategie-management/emission/Ghislain-Deslandes-Comment-le-numerique-nous-transforme-a-notre-insu_3751484.html">capacité à philosopher et à prendre soin de nous-mêmes</a>.</p>
<hr>
<p><em>Laurent Cervoni, Laila Benraïss-Noailles et Julien Cusin, directeurs de thèse de Yann Arnaud, ont supervisé la rédaction de cet article</em>.</p><img src="https://counter.theconversation.com/content/206435/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Yann Arnaud reçoit un financement de l'ANRT dans le cadre d'une convention doctorale CIFRE entre l'Université de Bordeaux (IRGO) et le groupe de conseil Talan.</span></em></p>L’humain garde le contrôle sur le développement d’algorithmes dépourvus d’esprit, dont seules les applications peuvent être jugées comme bienveillantes ou non.Yann Arnaud, Doctorant en éthique des affaires, Université de BordeauxLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2057892023-05-29T10:56:32Z2023-05-29T10:56:32ZL’IA ravive l’enjeu de l’identité professionnelle<figure><img src="https://images.theconversation.com/files/526559/original/file-20230516-7070-r63w69.jpg?ixlib=rb-1.1.0&rect=127%2C19%2C1070%2C776&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Plus d’un Français sur deux pense que l’IA modifie profondément les usages de consommation.
</span> <span class="attribution"><a class="source" href="https://www.wallpaperflare.com/illustration-of-woman-s-face-and-computer-codes-artificial-intelligence-wallpaper-zzahr">Wallpaperflare.com</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Début 2023, l’ouverture au grand public de l’outil conversationnel ChatGPT développé par la société Open IA a relancé les craintes de voir la technologie remplacer de nombreux métiers. <a href="https://www.telerama.fr/ecrans/chatgpt-l-intelligence-artificielle-qui-va-remplacer-les-journalistes-de-telerama-7013327.php">Journalistes</a>, développeurs et même <a href="https://theconversation.com/une-ia-remplacera-t-elle-bientot-votre-psychiatre-188193">psychiatres</a> : plusieurs corps professionnels s’inquiètent du constat de l’évolution de <a href="https://theconversation.com/fr/topics/intelligence-artificielle-ia-22176">l’intelligence artificielle (IA)</a> et de voir comment celle-ci parvient progressivement à les remplacer sur certaines tâches professionnelles.</p>
<p>Cependant, plusieurs études montrent que rares seront les professions complètement substituées par l’IA. En revanche, toutes soulignent son impact considérable sur le <a href="https://www.ifop.com/publication/notoriete-et-image-de-lintelligence-artificielle-aupres-des-francais-et-des-salaries-vague-3/">travail</a>. L’<a href="https://www.mazars.fr/Accueil/Insights/Publications-et-evenements/Etudes/Etude-Les-Francais-et-l-IA">étude</a> menée en mai 2022 par le cabinet Mazars indique par exemple que 54 % pensent que l’IA a un apport majeur dans des usages de consommation.</p>
<p>Reste à savoir quelle forme prendra la collaboration humain-machine dans ces situations, ou plus précisément : quelle place cette transformation laissera-t-elle à l’humain ?</p>
<p>Comme nous le montrons dans une recherche récente qui nous présenterons en juin prochain, lors de la 32<sup>e</sup> Conférence annuelle de l’Association internationale de management stratégique (AIMS), ces enjeux interrogent directement la notion d’<a href="https://www.cairn.info/la-reeducation-contre-l-ecole-tout-contre--9782749205106-page-17.htm">identité professionnelle</a>, c’est-à-dire la manière dont les salariés perçoivent et définissent leur rôle dans leur <a href="https://theconversation.com/fr/topics/travail-20134">travail</a>.</p>
<figure class="align-left zoomable">
<a href="https://images.theconversation.com/files/521343/original/file-20230417-974-5x3idt.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/521343/original/file-20230417-974-5x3idt.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/521343/original/file-20230417-974-5x3idt.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/521343/original/file-20230417-974-5x3idt.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/521343/original/file-20230417-974-5x3idt.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/521343/original/file-20230417-974-5x3idt.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/521343/original/file-20230417-974-5x3idt.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/521343/original/file-20230417-974-5x3idt.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p><em>Chaque lundi, que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez dans votre boîte mail les clés de la recherche pour la vie professionnelle et les conseils de nos experts dans notre newsletter thématique « Entreprise(s) ».</em></p>
<p><em><a href="https://theconversation.com/fr/newsletters/la-newsletter-entreprise-s-153/">Abonnez-vous dès aujourd’hui</a></em></p>
<p>Cette identité professionnelle se définit par une combinaison de compétences et de connaissances spécifiques qui caractérisent une profession et permet ainsi de la distinguer des autres. Cette notion reflète tout d’abord la capacité des salariés à faire sens de leur activité. Dans un deuxième temps, elle permet de développer un sentiment d’appartenance à une communauté professionnelle particulière. La possibilité de définir son identité professionnelle constitue ainsi un facteur de motivation au travail, et contribue plus largement à la <a href="https://www.seuil.com/ouvrage/redonner-du-sens-au-travail-thomas-coutrot/9782021503234">perception de son utilité au sein de la société</a>.</p>
<h2>Remise en cause de l’expertise humaine</h2>
<p>Loin d’être uniquement perçue comme une menace, l’apparition de l’IA dans l’activité professionnelle peut également permettre aux salariés de développer de nouvelles compétences en les déchargeant de tâches répétitives et laborieuses. Par exemple, Malakoff Humanis propose d’utiliser l’IA pour détecter les cas de fraudes à l’assurance. Les salariés peuvent ensuite venir vérifier les suggestions faites par l’IA et y contrevenir si nécessaire. Dans ce cas, l’IA peut favoriser l’identité professionnelle des salariés en les déchargeant des tâches de vérification manuelle de chaque cas lorsqu’il existe un soupçon de fraude, et ainsi leur permettre de se concentrer sur les activités à plus forte valeur ajoutée dans la relation client.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1003561998649524224"}"></div></p>
<p>Dans d’autres situations en revanche, l’IA permet de réaliser des tâches qui constituent le cœur de métier de certains professionnels. C’est ainsi le cas des comptables dont une part croissante des tâches manuelles est réalisée par l’IA. Par exemple, le remboursement de notes de frais peut aujourd’hui être opéré par des technologies basées sur la reconnaissance optique de caractère sur les documents papier. Dans le secteur médical, l’IA se montre plus performante que des équipes médicales pour la détection de cancer, ou le diagnostic de <a href="https://sante.lefigaro.fr/article/l-intelligence-artificielle-excelle-dans-le-diagnostic-du-melanome/">mélanome</a>.</p>
<p>Dans ces cas, l’IA vient directement questionner la valeur ajoutée du professionnel, son expertise, et ainsi la façon dont il établit son identité professionnelle. Que devient, dès lors, l’identité professionnelle lorsque le potentiel de remplacement par l’IA devient de plus en plus une réalité dans un <a href="https://theconversation.com/fr/topics/metiers-23736">métier</a> ? Les freins de la digitalisation des <a href="https://theconversation.com/fr/topics/entreprises-20563">entreprises</a> ne pourront être levés que si l’on s’attaque à la question de la reconstruction de l’identité professionnelle liée à l’arrivée de l’IA au travail.</p>
<h2>Le jugement humain toujours essentiel</h2>
<p>La première étape de la reconstruction de l’identité professionnelle menacée par l’IA consiste à repenser la nature de la collaboration humain-machine. Si l’IA était tout d’abord destinée à la gestion de données massives, elle est aujourd’hui de plus en plus utilisée pour des tâches complexes, jusqu’ici réservées aux humains. Au-delà d’un outil, elle peut alors devenir un conseiller voire un collaborateur utile sur lequel s’appuyer pour développer de nouvelles compétences.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/voici-pourquoi-lintelligence-artificielle-ne-peut-etre-consideree-comme-un-simple-outil-186014">Voici pourquoi l'intelligence artificielle ne peut être considérée comme un simple outil</a>
</strong>
</em>
</p>
<hr>
<p>Il est donc nécessaire d’identifier ces nouvelles compétences à valoriser pour reconstruire son identité professionnelle et ainsi faire évoluer le sens de son travail. Pour cela, il faut se concentrer sur les expertises « tacites », c’est-à-dire difficilement descriptibles et donc substituables par l’IA. De nombreux chercheurs insistent en effet sur la singularité de certaines capacités humaines, et notamment le rôle important du jugement humain dans des contextes où l’empathie et les particularités de chaque personne impliquent des nuances, parfois irrationnelles, que les <a href="https://theconversation.com/fr/topics/algorithmes-24412">algorithmes</a> ne peuvent comprendre.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/lintelligence-artificielle-est-elle-vraiment-creative-205352">L’intelligence artificielle est-elle vraiment créative ?</a>
</strong>
</em>
</p>
<hr>
<p>En ce sens, l’utilisation de l’IA dans les processus de recrutement a été largement décriée. Tout d’abord en raison des biais algorithmiques qui consistent à reproduire les inégalités et discriminations de la société. De plus, les algorithmes occultent un ensemble d’éléments liés à l’environnement et aux conditions particulières de chaque situation humaine : un retard de transport, des difficultés techniques qui placent le candidat dans une situation de stress, une originalité qui ne rentre pas dans les critères préconçus par l’algorithme… et tant d’autres éléments qui influencent la « prestation » du candidat sans pouvoir être intégrés par la machine programmée.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/lintelligence-artificielle-pour-mieux-recruter-vraiment-197734">L’intelligence artificielle pour mieux recruter… vraiment ?</a>
</strong>
</em>
</p>
<hr>
<p>Pour pallier ces manquements, le jugement humain apparaît nécessaire pour toute prise de décision conduisant à des conséquences tangibles telles que l’accord d’un prêt pour une personne vulnérable, un traitement médical personnalisé, ou encore le parcours de formation d’un étudiant au profil atypique.</p>
<p>Dans cette perspective, repenser la relation humain-machine consiste alors à concevoir la place du jugement humain dans la prise de décision automatisée. Il faut ainsi renforcer la capacité des salariés à pouvoir intervenir sur les prises de décision opérées par l’IA, soit en faisant en sorte que l’IA propose des actions à réaliser parmi lesquelles le salarié peut choisir, soit en laissant la possibilité à celui-ci de contrevenir à une décision prise par l’IA dans des cas particuliers.</p>
<p>C’est donc sur ces expertises tacites qu’il faut miser pour pouvoir reconstruire une identité professionnelle valorisante, et complémentaire aux capacités de l’IA. En s’appuyant sur l’IA comme un réel outil d’aide à la décision, la profession évoluera vers un renforcement de l’expertise tacite et par conséquent une « augmentation » du rôle du professionnel. Les professions qui font face à l’émergence de l’IA doivent anticiper son impact sur l’identité professionnelle très en amont afin de réfléchir sur la construction d’une complémentarité humain-machine.</p><img src="https://counter.theconversation.com/content/205789/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>L’irruption de ChatGPT remet notamment en question les compétences et les caractéristiques inhérentes à certains métiers aujourd’hui appelés à se renouveler pour perdurer.Clara Letierce, Professeur assistant, responsable de la spécialisation bachelor « management digital , Burgundy School of Business Yann Truong, Professor, Strategy, Entrepreneurship and International Business, ESSCA School of ManagementLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2055342023-05-19T10:11:52Z2023-05-19T10:11:52ZDe Cambridge Analytica à ChatGPT, comprendre comment l’IA donne un sens aux mots<p>Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’<a href="https://arxiv.org/html/cs/9906002">« ancrage du symbole »</a>.</p>
<p>Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens.</p>
<p>En revanche, comment faire faire cette analyse à une IA ? La technique dite de <a href="https://fr.wikipedia.org/wiki/Plongement_lexical">« plongement lexical »</a>, si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.</p>
<h2>Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches</h2>
<p>Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.</p>
<p>Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (<em>oreilles</em>, <em>moustache</em> ou <em>avion</em>).</p>
<figure class="align-center ">
<img alt="pieds d’un plongeur" src="https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=446&fit=crop&dpr=1 600w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=446&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=446&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=560&fit=crop&dpr=1 754w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=560&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=560&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT.</span>
<span class="attribution"><a class="source" href="https://unsplash.com/fr/photos/Gck455DlpPI">Amy Lister/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.</p>
<p>Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.</p>
<h2>Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension</h2>
<p>C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).</p>
<p>Leurs méthodes reposent sur une <a href="https://www.pnas.org/doi/10.1073/pnas.1418680112">publication scientifique parue en 2014 dans la revue PNAS</a>, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.</p>
<p>L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.</p>
<p>Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet. </p>
<p>Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.</p>
<h2>Être conscients de ce que nos « likes » disent sur nous</h2>
<p>Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.</p>
<figure class="align-center ">
<img alt="likes peints sur un mur argenté" src="https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence.</span>
<span class="attribution"><a class="source" href="https://unsplash.com/fr/photos/f-PH16nZHKI">George Pagan III/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p><a href="https://fr.wikipedia.org/wiki/Cambridge_Analytica">Cambridge Analytica</a> est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.</p>
<p>Notons que c’est <a href="https://www.lemonde.fr/pixels/article/2022/12/23/affaire-cambridge-analytica-facebook-accepte-de-payer-725-millions-de-dollars_6155532_4408996.html">uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice</a>, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.</p>
<h2>Calculer avec des mots en prenant en compte leur signification</h2>
<p>En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.</p>
<p>Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot <em>roi</em>, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot <em>homme</em>, de lui ajouter le vecteur représentant le mot <em>femme</em>, pour obtenir un vecteur très proche de celui représentant le mot <em>reine</em>. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il <a href="https://theconversation.com/chatgpt-et-intelligences-artificielles-comment-deceler-le-vrai-du-faux-200181">ajoute d’autres techniques</a>.</p>
<p>Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?</p>
<p>Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.</p><img src="https://counter.theconversation.com/content/205534/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Frédéric Alexandre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>L’exemple de Cambridge Analytica peut nous aider à comprendre comment ChatGPT donne un « sens » aux mots qu’il utilise.Frédéric Alexandre, Directeur de recherche en neurosciences computationnelles, Université de Bordeaux, InriaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2033692023-05-14T15:21:39Z2023-05-14T15:21:39Z« L’envers des mots » : Algocratie<p>Formé de <em>algo</em>, apocope d’<em>algorithme</em>, et du suffixe <em>-cratie</em> (qui vient du grec <em>kratos</em>, le pouvoir), <em>algocratie</em> est un terme qui émerge depuis quelques années pour désigner le nouveau système politique dans lequel nous serions entrés. </p>
<p>Un système dans lequel les <a href="https://theconversation.com/fr/topics/algorithmes-24412">algorithmes</a> – les étapes élémentaires des calculs utilisés pour résoudre un problème, comme répondre à une requête sur un moteur de recherche – influencent et font partie du processus de prise de décision dans divers secteurs. Dans la vie politique, économique et sociale de la société, elles pourraient même préempter de manière automatique un pouvoir jadis propriété du peuple en démocratie.</p>
<p>Ce terme est ainsi le titre de trois ouvrages publiés entre 2020 et 2023 : <a href="https://www.fabert.com/editions-fabert/resister-a-l-algocratie-rester-humain-dans-nos-metiers-et-dans-nos-vies.3391.produit.html"><em>Résister à l’algocratie. Rester humain dans nos métiers et dans nos vies</em></a> de Vincent Magos ; <a href="https://www.actes-sud.fr/catalogue/sciences-humaines-et-sociales-sciences/algocratie"><em>Algocratie. Vivre libre à l’heure des algorithmes</em></a> de Arthur Grimonpont ; <a href="https://www.deboecksuperieur.com/ouvrage/9782807351516-algocratie"><em>Algocratie. Allons-nous donner le pouvoir aux algorithmes ?</em></a> de Hugues Bersini.</p>
<h2>Algocratie et démocratie</h2>
<p>L’algocratie est-elle en passe de remplacer la démocratie ? De plus en plus de domaines régaliens, démocratiques sont pénétrés par les algorithmes : filtrage et tri sur les réseaux sociaux, aide à la décision (justice, santé…), sélection à l’université, analyse prédictive (police, assurance…). Dès lors, nombreux sont ceux qui estiment qu’il existe un danger de dépossession du pouvoir du peuple, le « demos » de la démocratie, au profit de ces algorithmes.</p>
<p>L’économie mondiale fonctionne par exemple largement sur des algorithmes financiers. À titre d’exemple, le premier gestionnaire d’actifs mondial, le fond américain BlackRock, <a href="https://www.lemonde.fr/economie/article/2017/03/30/blackrock-aladdin-et-l-investissement-merveilleux_5103222_3234.html">utilise notamment l’intelligence artificielle Aladdin</a>, outil d’investissement capable d’évaluer les risques financiers et qui a contrôlé jusqu’à 20 000 milliards de dollars d’actifs financiers.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/comment-fonctionne-lalgorithme-de-recommandation-de-youtube-ou-comment-jai-decouvert-le-rap-hardcore-152189">Comment fonctionne l’algorithme de recommandation de YouTube ? Ou comment j’ai découvert le rap hardcore</a>
</strong>
</em>
</p>
<hr>
<p>Aujourd’hui, <a href="https://www.statista.com/statistics/617136/digital-population-worldwide/">plus de la moitié de la population mondiale utilise quotidiennement les réseaux sociaux</a> sur lesquels des algorithmes de recommandation ajustent le contenu proposé aux préférences des utilisateurs et façonnent ainsi leurs représentations du monde. Il arrive qu’ils échappent aux volontés de leurs créateurs. De par leur fonctionnement qui valorise les réactions générées et sans être la volonté explicite de leurs créateurs, ceux-ci privilégient par exemple la diffusion des <a href="https://www.science.org/doi/full/10.1126/sciadv.aau4586">fake news</a>.</p>
<h2>Un nouveau monde institutionnel</h2>
<p>L’algocratie serait ainsi un monde institutionnel où ces grandes entreprises transnationales participant à cette forme de régulation algorithmique prennent de plus en plus d’importance.</p>
<p>Néanmoins, employer le terme d’<em>algocratie</em> nous éloigne de la responsabilité. En réalité, dans une algocratie, si le pouvoir change, ce n’est pas pour aller du peuple vers les algorithmes. Les algorithmes matérialisent des relations de pouvoir et servent des volontés – politiques, économiques, idéologiques – bien humaines.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/quest-ce-quun-algorithme-162896">Qu’est-ce qu’un algorithme ?</a>
</strong>
</em>
</p>
<hr>
<p>Loin d’être une fatalité ou une évidence, le développement de ce qui pourrait s’apparenter à une « algocratie » répond donc à des choix politiques et à la mise en avant de ce que la chercheuse en philosophie du droit Antoinette Rouvroy appelle une <a href="https://theconversation.com/autour-de-linformatique-les-algorithmes-et-la-disparition-du-sujet-53515">« rationalité algorithmique »</a>. </p>
<p>Ce sont des choix politiques et techniques d’un mode poussé de gouvernement par les nombres, faisant craindre qu’une algocratie soit en réalité un nouveau genre de <a href="https://theconversation.com/relecture-du-post-scriptum-de-gilles-deleuze-pour-temps-numeriques-51507">« société de contrôle »</a>.</p>
<h2>Mythe et philosophie</h2>
<p>L’algocratie s’inscrit dans une histoire philosophique et scientifique héritée de la philosophie des Lumières et de la révolution scientifique du XVIII<sup>e</sup> siècle qui ont érigé la rationalité en culte. </p>
<p>De ce point de vue, l’aboutissement d’une certaine idée de la rationalité s’incarne dans cette <a href="https://www-cairn-info.accesdistant.sorbonne-universite.fr/revue-reseaux-2013-1-page-163.htm">« gouvernementalité algorithmique »</a> synonyme d’algocratie. D’autant que, <a href="https://www.fayard.fr/sciences-humaines/la-gouvernance-par-les-nombres-9782213681092">comme le dit l’universitaire et juriste Alain Supiot</a>, nous pensons que gouverner et exercer le pouvoir sont une seule et même chose, que le pouvoir devrait être fondé sur une connaissance scientifique de l’individu et donc « impersonnel ». Cela expliquerait la diffusion d’une « gouvernance par les nombres » où tout, y compris la loi, devient l’objet d’un calcul.</p>
<p>L’idée d’une algocratie vient ainsi d’un mythe, celui du caractère infaillible de la technique face à la faillibilité de l’individu. L’algocratie ne considère plus une société comme étant un ensemble mais comme n’était plus que des groupes d’individus, des atomes.</p>
<hr>
<p><em>Cet article s’intègre dans la série <strong><a href="https://theconversation.com/fr/topics/lenvers-des-mots-127848">« L’envers des mots »</a></strong>, consacrée à la façon dont notre vocabulaire s’étoffe, s’adapte à mesure que des questions de société émergent et que de nouveaux défis s’imposent aux sciences et technologies. Des termes qu’on croyait déjà bien connaître s’enrichissent de significations inédites, des mots récemment créés entrent dans le dictionnaire. D’où viennent-ils ? En quoi nous permettent-ils de bien saisir les nuances d’un monde qui se transforme ?</em></p>
<p><em>De <a href="https://theconversation.com/lenvers-des-mots-validisme-191134">« validisme »</a> à <a href="https://theconversation.com/lenvers-des-mots-silencier-197959">« silencier »</a>, de <a href="https://theconversation.com/lenvers-des-mots-bifurquer-191438">« bifurquer »</a> à <a href="https://theconversation.com/lenvers-des-mots-degenrer-191115">« dégenrer »</a>, nos chercheurs s’arrêtent sur ces néologismes pour nous aider à mieux les comprendre, et donc mieux participer au débat public.</em></p>
<p><em>À découvrir aussi dans cette série :</em></p>
<ul>
<li><p><a href="https://theconversation.com/lenvers-des-mots-technoference-199446"><em>« L’envers des mots » : Technoférence</em></a></p></li>
<li><p><a href="https://theconversation.com/lenvers-des-mots-ecocide-200604"><em>« L’envers des mots » : Écocide</em></a></p></li>
<li><p><a href="https://theconversation.com/lenvers-des-mots-neuromorphique-195152"><em>« L’envers des mots » : Neuromorphique</em></a></p></li>
</ul><img src="https://counter.theconversation.com/content/203369/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Adrien Tallent a reçu des financements de SNCF Réseau dans le cadre d'un contrat doctoral CIFRE. </span></em></p>L’algocratie est-elle en passe de remplacer la démocratie ? Les questions sur la place grandissante des algorithmes dans la prise de décision sont en tout cas au cœur du débat d’idées actuel.Adrien Tallent, Doctorant en philosophie politique et éthique, Sorbonne UniversitéLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2039372023-04-19T16:56:43Z2023-04-19T16:56:43ZConsommation sur Internet : perdant ou gagnant face à la fluctuation des prix ?<figure><img src="https://images.theconversation.com/files/521247/original/file-20230417-24-m5jkvl.jpg?ixlib=rb-1.1.0&rect=50%2C14%2C908%2C651&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Le géant du e-commerce Amazon, un exemple de plate-forme qui utilise la tarification dynamique.
</span> <span class="attribution"><span class="source">Shutterstock</span></span></figcaption></figure><p>La <a href="https://www.cgt.fr/actualites/france/interprofessionnel/pouvoir-dachat/inflation-plus-dure-en-france-du-fait-de-la-stagnation-des-salaires">stagnation des salaires</a>, l’<a href="https://theconversation.com/en-france-linflation-a-probablement-atteint-son-pic-en-2022-194987">inflation record</a>, la <a href="https://www.radioclassique.fr/economie/inflation-limpressionnante-chute-de-la-consommation-des-menages-en-france/">chute de la consommation des ménages</a> viennent aujourd’hui considérablement redistribuer les cartes de notre société de consommation. Une stratégie utilisée par les sites de vente peut particulièrement renforcer ces phénomènes. On la nomme la tarification dynamique en ligne. Il s’agit d’une stratégie de variation incessante des prix à la hausse et à la baisse, à laquelle de plus en plus de sites ont recours pour des catégories différentes de produits ou de services.</p>
<p>À titre illustratif, cette méthode a été utilisée par le site Ticketmaster pour distribuer les billets des <a href="https://www.rtbf.be/article/bruce-springsteen-des-tickets-vendus-a-plus-de-5000-11038366">concerts de Bruce Springsteen</a> dans le cadre de sa tournée 2023, avec des prix qui sont montés jusqu’à 5 000 dollars pour les places les plus prisées, menant les fans à s’insurger.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/521241/original/file-20230417-20-k0oy6h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Le chanteur Bruce Springsteen" src="https://images.theconversation.com/files/521241/original/file-20230417-20-k0oy6h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/521241/original/file-20230417-20-k0oy6h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=405&fit=crop&dpr=1 600w, https://images.theconversation.com/files/521241/original/file-20230417-20-k0oy6h.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=405&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/521241/original/file-20230417-20-k0oy6h.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=405&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/521241/original/file-20230417-20-k0oy6h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=509&fit=crop&dpr=1 754w, https://images.theconversation.com/files/521241/original/file-20230417-20-k0oy6h.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=509&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/521241/original/file-20230417-20-k0oy6h.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=509&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Certains billets pour les concerts de la tournée 2023 de Bruce Springsteen ont été mis à prix à 5 000 dollars.</span>
<span class="attribution"><a class="source" href="https://www.flickr.com/photos/10567940@N05/3949821038">Andrés Fevrier/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Nos travaux de <a href="https://www.cairn.info/revue-recherches-en-sciences-de-gestion-2022-4-page-83.htm">recherche</a> invitent particulièrement à envisager les conséquences que la tarification dynamique en ligne peut avoir sur les achats des consommateurs. Comment fonctionne-t-elle ? Quand leur profite-t-elle ou nuit-elle à leurs achats ? Quelles sont les options dont ils disposent pour la limiter ?</p>
<h2>Comment ça marche ?</h2>
<p>La tarification dynamique en ligne repose principalement sur le recours à des algorithmes d’intelligence artificielle utilisés pour orchestrer une fluctuation des prix pour un même produit ou service au cours du temps. Cette stratégie utilise, entre autres, des données relatives aux consommateurs (comme les fameux cookies collectés en ligne ou les informations volontairement données lors d’une inscription en ligne sur un site comme le nom ou l’âge) et les données du marché (comme les prix pratiqués par les concurrents). Cette méthode de fixation des prix permet, par exemple, à des <a href="https://www.boursorama.com/conso/actualites/pourquoi-les-prix-varient-autant-sur-les-sites-de-e-commerce-et-comment-trouver-les-meilleurs-5937d3896007c3653da4711bf57eb9ae">sites de vente de réaliser une variation des prix</a> en temps réel à l’instar d’Amazon, de Cdiscount ou de la Fnac.</p>
<p>L’automatisation algorithmique de la fixation du prix peut même devenir la base du modèle économique de certaines entreprises. Par exemple, pour <a href="https://www.uber.com/fr/fr/ride/how-it-works/upfront-pricing/">l’application Uber</a>, le prix est fixé instantanément selon l’offre et la demande, en s’appuyant, entre autres, sur la planification informatisée des courses demandées par les clients et du nombre de chauffeurs disponibles à ce moment-là pour une zone géographique donnée.</p>
<p>L’objectif premier d’une entreprise qui a recours à la tarification dynamique est de maximiser son profit. Ce dernier est encore plus optimisé lorsque cette méthode repose sur une personnalisation du prix pour chaque consommateur. Dans ce cas, l’algorithme utilisé mobilise, entre autres, son <a href="https://doi.org/10.1177/076737010902400205">« consentement à payer »</a> (correspondant au montant maximal qu’il est prêt à payer pour un produit), critère qui découle d’un calcul algorithmique prenant par exemple en compte son historique d’achats.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1071900613280231424"}"></div></p>
<h2>Le consommateur, gagnant ou perdant ?</h2>
<p>Dans le cadre de la tarification dynamique en ligne, on peut légitimement se demander dans quelle mesure une variation continue des prix pour un produit identique mène le consommateur à se sentir gagnant ou perdant…</p>
<p>Deux formes extrêmes de tarification dynamique peuvent être identifiées. La première est une forme basique où le prix du produit ou du service proposé varie dans le temps de la même façon pour tous les consommateurs. La seconde forme est totalement personnalisée c’est-à-dire qu’un prix différent est appliqué à chaque consommateur en se basant sur l’estimation algorithmique de son <a href="https://doi.org/10.1177/076737010902400205">« consentement à payer »</a>. Dans ce second cas, les consommateurs se voient proposer au même moment des prix différents pour un article identique. L’évaluation du consentement à payer peut ne pas être le reflet de la réalité économique et sociale des individus. L’algorithme peut donc conduire à une surestimation de ce paramètre qui peut être perçue comme injuste par les individus et donc les mener à se sentir perdants.</p>
<p>De façon générale, quelle que soit l’approche utilisée pour la tarification dynamique en ligne, lorsqu’un prix est perçu comme élevé, le consommateur se voit comme perdant, à l’image des réactions des fans qui ne pouvaient s’offrir les places pour un des concerts de <a href="https://www.rtbf.be/article/bruce-springsteen-des-tickets-vendus-a-plus-de-5000-11038366">Bruce Springsteen</a>. Tandis que <a href="https://www.boursorama.com/conso/actualites/pourquoi-les-prix-varient-autant-sur-les-sites-de-e-commerce-et-comment-trouver-les-meilleurs-5937d3896007c3653da4711bf57eb9ae">lorsqu’il paie un prix qu’il perçoit comme bas</a>, le consommateur en ressort gagnant.</p>
<h2>Que peut faire le consommateur ?</h2>
<p>Des outils traqueurs de prix se développent pour aider les consommateurs à retrouver l’historique des prix pratiqués par certaines plates-formes comme Amazon afin de décider si leur achat est à réaliser maintenant ou s’ils prennent le pari d’attendre. Il est également possible de trouver des sites qui aiguillent les consommateurs lors d’achat de produits particuliers quand la tarification dynamique en ligne devient fréquemment utilisée dans certains domaines comme pour les <a href="https://www.protegez-vous.ca/nouvelles/technologie/la-tarification-dynamique-dans-les-concerts-en-10-questions">places de concert</a>.</p>
<p>Les consommateurs peuvent aussi essayer autant que possible de limiter les données que les sites peuvent collecter en n’autorisant pas la <a href="https://www.generation-nt.com/actualites/fluctuation-prix-internet-tarification-dynamique-1909160">collecte de cookies</a> lorsqu’ils visitent un site. Ils peuvent aussi éviter de donner toutes les informations demandées lorsqu’ils saisissent un formulaire d’inscription. Il est également envisageable d’effectuer certains achats lorsque ce n’est pas la saison afin de s’assurer que la demande de produits est faible à l’instar de l’achat d’un parasol ou d’un barbecue en hiver.</p>
<p>Évidemment, la tarification dynamique soulève également la question de la responsabilité des entreprises. Ces dernières doivent s’interroger sur les limites des différents algorithmes auxquels elles peuvent avoir recours en intégrant les préoccupations des consommateurs. Par exemple, un enjeu pour les sites est de trouver comment minimiser les biais liés aux algorithmes qui peuvent engendrer des prix amenant à surévaluer le <a href="https://doi.org/10.1177/076737010902400205">« consentement à payer »</a> des individus. Pour chaque type de produit ou service, il s’agirait donc de s’interroger aussi sur les intervalles de variation de prix et les fréquences de changement du prix perçus comme acceptables par les potentiels acheteurs.</p>
<p>Par ailleurs, certains sites affichent officiellement le recours à cette stratégie à l’image d’<a href="https://www.uber.com/fr/fr/ride/how-it-works/upfront-pricing/">Uber</a> tandis que d’autres, tel qu’<a href="https://www.reactev.com/fr/blog/strategie-de-prix-dynamiques-amazon">Amazon</a>, décident de ne pas partager les secrets de fabrication de l’algorithme utilisé. À l’ère où les consommateurs appellent les entreprises à plus de transparence, les préoccupations éthiques des entreprises permettant aux individus de ne pas se sentir lésés en comprenant mieux les prix qui leur sont proposés lors de l’achat d’un produit peuvent finalement apparaître comme essentielles et s’avéraient être un atout stratégique.</p><img src="https://counter.theconversation.com/content/203937/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>La tarification dynamique (variation continue des prix à la hausse et à la baisse), couplée à l’inflation, peut parfois donner le sentiment aux individus d’être gagnants.Sarah Benmoyal Bouzaglo, Maitre de conférences, Université Paris CitéCorina Paraschiv, Professeur des Universités en Sciences de Gestion, Université Paris CitéLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2015032023-03-26T16:08:47Z2023-03-26T16:08:47ZEnquête : derrière l’IA, les travailleurs précaires des pays du Sud<figure><img src="https://images.theconversation.com/files/516757/original/file-20230321-28-9jioy8.jpg?ixlib=rb-1.1.0&rect=0%2C1%2C1010%2C1021&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Dessin des locaux d'une entreprise d'annotation de données réalisé avec l'IA Midjourney</span> <span class="attribution"><span class="source"> Généré par MidJourney CC-BY-4.0</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc/4.0/">CC BY-NC</a></span></figcaption></figure><p>Il n’y a pas que des robots derrière l’intelligence artificielle (IA) : en bout de chaîne, on trouve souvent des travailleurs des pays du sud. Récemment une enquête du <a href="https://time.com/6247678/openai-chatgpt-kenya-workers/">Time</a> révélait que des travailleurs kényans payés moins de trois euros de l’heure étaient chargés de s’assurer que les données utilisées pour entraîner <a href="https://theconversation.com/fr/topics/chatgpt-133745">ChatGPT</a> <a href="https://theconversation.com/comment-lintelligence-artificielle-reproduit-et-amplifie-le-racisme-167950">ne comportaient pas de contenu à caractère discriminatoire</a>.</p>
<p><a href="https://theconversation.com/fr/topics/intelligence-artificielle-ia-22176">Les modèles d’IA</a> ont en effet besoin d’être entraînés, en mobilisant une masse de données extrêmement importante, pour leur apprendre à reconnaître leur environnement et à interagir avec celui-ci. Ces données doivent être collectées, triées, vérifiées et mises en forme. Ces tâches chronophages et peu valorisées sont généralement externalisées par les entreprises technologiques à une <a href="https://journals.uic.edu/ojs/index.php/fm/article/view/9913/7748">foule de travailleurs précaires, généralement situés dans les pays des suds</a>.</p>
<p>Ce travail de la donnée prend plusieurs formes, en fonction des cas d’usage de l’algorithme final, mais il peut s’agir par exemple d’entourer les personnes présentes sur les images capturées par une caméra de vidéosurveillance, pour apprendre à l’algorithme à reconnaître un humain. Ou encore corriger manuellement les erreurs produites par un modèle de traitement automatique de factures.</p>
<p>Nous proposons, à travers une enquête menée entre Paris et Antananarivo, capitale de Madagascar, de nous pencher sur l’identité de ces travailleurs de la donnée, leurs rôles et leurs conditions de travail, et de proposer des pistes pour enrichir les discussions autour de la régulation des systèmes d’IA.</p>
<h2>L’intelligence artificielle, une production mondialisée</h2>
<p>Nos recherches appuient l’hypothèse que le développement de l’intelligence artificielle ne signifie pas la <a href="https://www.sciencedirect.com/science/article/abs/pii/S0040162516302244">fin de travail due à l’automation</a>, comme certains auteurs l’avancent, mais plutôt son déplacement dans les pays en voie de développement.</p>
<p>Notre étude montre aussi la réalité de « l’IA à la française » : d’un côté, les entreprises technologiques françaises s’appuient sur les services des GAFAM pour accéder à des services d’hébergement de données et de puissance de calcul ; d’un autre côté les activités liées aux données sont réalisées par des travailleurs situés dans les ex-colonies françaises, notamment Madagascar, confirmant alors des logiques déjà anciennes en matière de chaînes d’externalisation. La littérature compare d’ailleurs ce type d’industrie <a href="https://www.tandfonline.com/doi/full/10.1080/03066150.2022.2069015">avec le secteur textile et minier</a>.</p>
<p>Un constat initial a guidé notre travail d’enquête : les conditions de production de l’IA restent mal connues. En nous appuyant sur des recherches antérieures sur le <a href="https://www.seuil.com/ouvrage/en-attendant-les-robots-antonio-a-casilli/9782021401882">« travail numérique » (digital labour)</a>, nous avons cherché à comprendre où et comment sont façonnés les algorithmes et les jeux de données nécessaires à leurs entraînements ?</p>
<p>Intégrés au sein du groupe de recherche <a href="https://diplab.eu">Digital Platform Labor</a>, notre travail consiste à analyser les relations d’externalisation entre entreprises d’intelligence artificielle françaises et leurs sous-traitants basés dans les pays d’Afrique francophone et à <a href="https://www.humanite.fr/social-eco/intelligence-artificielle/enquete-derriere-l-intelligence-artificielle-made-france-des-exploites-madagascar-774148">dévoiler les conditions de travail</a> de ces « travailleurs de la donnée » malgaches, devenus essentiels au fonctionnement des systèmes intelligents.</p>
<p>Notre enquête a débuté à Paris en mars 2021. Dans un premier temps, nous avons cherché à comprendre le regard que les entreprises françaises productrices d’IA entretenaient sur ces activités liées au travail de la donnée, et quels étaient les processus mis en œuvre pour assurer la production de jeux de données de qualité suffisante pour entraîner les modèles.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/517392/original/file-20230324-14-5vkuoi.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/517392/original/file-20230324-14-5vkuoi.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=403&fit=crop&dpr=1 600w, https://images.theconversation.com/files/517392/original/file-20230324-14-5vkuoi.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=403&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/517392/original/file-20230324-14-5vkuoi.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=403&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/517392/original/file-20230324-14-5vkuoi.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=506&fit=crop&dpr=1 754w, https://images.theconversation.com/files/517392/original/file-20230324-14-5vkuoi.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=506&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/517392/original/file-20230324-14-5vkuoi.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=506&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Le lac Anosy Central à Antananarivo, capital de Madagascar.</span>
<span class="attribution"><a class="source" href="https://fr.wikipedia.org/wiki/Antananarivo#/media/Fichier:Lake_Anosy,_Central_Antananarivo,_Capital_of_Madagascar,_Photo_by_Sascha_Grabow.jpg">Sascha Grabow/Wikipedia</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Nous nous sommes ainsi entretenus avec 30 fondateurs et employés opérant dans 22 entreprises parisiennes du secteur. Un résultat a rapidement émergé de ce premier travail de terrain : le travail des données est dans sa majorité externalisé auprès de prestataires situés à Madagascar.</p>
<p>Les raisons de cette concentration des flux d’externalisation vers Madagascar sont multiples et complexes. On peut toutefois mettre en avant le faible coût du travail qualifié, la présence historique du secteur des services aux entreprises sur l’île, et le nombre élevé d’organisations proposant ces services.</p>
<p>Lors d’une seconde partie de l’enquête d’abord menée à distance, puis sur place à Antananarivo, nous nous sommes entretenus avec 147 travailleurs, managers, et dirigeants de 10 entreprises malgaches. Nous avons dans le même temps diffusé un questionnaire auprès de 296 travailleurs des données situés à Madagascar.</p>
<h2>Les emplois du numérique : solution précaire pour jeunes urbains éduqués</h2>
<p>Dans un premier temps, le terrain révèle que ces travailleurs des données sont intégrés à un secteur plus large de production de service aux entreprises, allant des centres d’appels à la modération de contenu web en passant par les services de rédaction pour l’optimisation de la visibilité des sites sur les moteurs de recherche.</p>
<p>Les données du questionnaire révèlent que ce secteur emploie majoritairement des hommes (68 %), jeunes (87 % ont moins de 34 ans), urbains et éduqués (75 % ont effectué un passage dans l’enseignement supérieur).</p>
<p>Quand ils évoluent au sein de l’économie formelle, ils occupent généralement un poste en CDI. La moindre protection offerte par le droit du travail malgache comparée au droit du travail français, la méconnaissance des textes par les travailleurs, et la faiblesse des corps intermédiaires (syndicats, collectifs) et de la représentation en entreprise accentuent néanmoins la précarité de leur position. Ils gagnent en majorité entre 96 et 126 euros par mois, avec des écarts de salaires significatifs, jusqu’à 8 à 10 fois plus élevés pour les postes de supervision d’équipe, également occupés par des travailleurs malgaches situés sur place.</p>
<p>Ces travailleurs sont situés à l’extrémité d’une longue chaîne d’externalisation, ce qui explique en partie la faiblesse des salaires de ces travailleurs qualifiés, même au regard du contexte malgache.</p>
<p>La production de l’IA implique en effet trois types d’acteurs : les services d’hébergement de données et de puissance de calcul proposés par les GAFAM, les entreprises françaises qui vendent des modèles d’IA et les entreprises qui proposent des services d’annotations de données depuis Madagascar, chaque intermédiaire captant une partie de la valeur produite.</p>
<p>Ces dernières sont de plus généralement très dépendantes de leurs clients français, qui gèrent cette force de travail externalisée de manière quasi directe, avec des postes de management intermédiaire dédiés au sein des start-up parisiennes.</p>
<p>L’occupation de ces postes de direction par des étrangers, soit employés par les entreprises clientes en France, soit par des expatriés sur place, représente un frein important aux possibilités d’évolution de carrière offertes à ces travailleurs, qui restent bloqués dans les échelons inférieurs de la chaîne de valeur.</p>
<h2>Des entreprises qui profitent des liens postcoloniaux</h2>
<p>Cette industrie profite d’un régime spécifique, les « zones franches », institué en 1989 pour le secteur textile. Dès le début des années 1990, des entreprises françaises s’installent à Madagascar, notamment pour des tâches de numérisation liées au secteur de l’édition. Ces zones, présentes dans de nombreux pays en voie de développement, facilitent l’installation d’investisseurs en prévoyant des exemptions d’impôts et de très faibles taux d’imposition.</p>
<p>Aujourd’hui, sur les 48 entreprises proposant des services numériques dans des zones franches, seulement 9 sont tenues par des Malgaches, contre 26 par des Français. En plus de ces entreprises formelles, le secteur s’est développé autour d’un mécanisme de « sous-traitance en cascade », avec, à la fin de la chaîne des entreprises et entrepreneurs individuels informels, moins bien traités que dans les entreprises formelles, et mobilisés en cas de manque de main-d’œuvre par les entreprises du secteur.</p>
<p>En plus du coût du travail, l’industrie de l’externalisation profite de travailleurs bien formés : la plupart sont allés à l’université et parlent couramment le français, appris à l’école, par Internet et à travers le réseau des Alliances françaises. Cette institution d’apprentissage du français a été <a href="https://read.dukeupress.edu/french-historical-studies/article-abstract/40/1/95/66262/To-Spread-the-French-Language-Is-to-Extend-the">initialement créée en 1883</a> afin de renforcer la colonisation à travers l’extension de l’utilisation de la langue du colonisateur par les populations colonisées.</p>
<p>Ce schéma rappelle ce que le chercheur Jan Padios désigne comme le <a href="https://www.dukeupress.edu/a-nation-on-the-line">« colonial recall »</a>. Les anciens pays colonisés disposent de compétences linguistiques et d’une proximité culturelle avec les pays donneurs d’ordres dont bénéficient les entreprises de services.</p>
<h2>Rendre visibles les travailleurs de l’intelligence artificielle</h2>
<p>Derrière l’explosion récente des projets d’IA commercialisés dans les pays du nord, on retrouve un nombre croissant de travailleurs de la donnée. Alors que la récente controverse autour des « caméras intelligentes », prévues par le projet de loi relatif aux Jeux olympiques de Paris, <a href="https://www.radiofrance.fr/franceculture/podcasts/la-question-du-jour/loi-jo-2024-la-videosurveillance-algorithmique-menace-t-elle-nos-libertes-8374598">s’est principalement focalisée sur les risques matière de surveillance généralisée</a>, il nous semble nécessaire de mieux prendre en compte le travail humain indispensable à l’entraînement des modèles, tant il soulève de nouvelles questions relatives aux conditions de travail et au respect de la vie privée.</p>
<p>Rendre visible l’implication de ces travailleurs c’est questionner des chaînes de production mondialisées, bien connues dans l’industrie manufacturière, mais qui existent aussi dans le secteur du numérique. Ces travailleurs étant nécessaires au fonctionnement de nos infrastructures numériques, ils sont les rouages invisibles de nos vies numériques.</p>
<p>C’est aussi rendre visible les conséquences de leur travail sur les modèles. Une partie des biais algorithmiques résident en effet dans le travail des données, pourtant encore <a href="https://milamiceli.com/wp-content/uploads/2021/10/GROUP2022_CRv1.pdf">largement invisibilisé par les entreprises</a>. Une IA réellement éthique doit donc passer par une <a href="https://www.noemamag.com/the-exploited-labor-behind-artificial-intelligence/">éthique du travail</a> de l’IA.</p>
<hr>
<p><em>Le projet <a href="https://anr.fr/Project-ANR-19-CE10-0012">The HUman Supply cHain behind smart technologies – HUSH</a> est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’<a href="https://anr.fr/">ANR</a>.</em></p><img src="https://counter.theconversation.com/content/201503/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Cette enquête s'inscrit dans le cadre du projet "The HUman Supply cHain behind smart technologies" (HUSH) financé par l'Agence Nationale de la Recherche. Pour permettre l'accès au terrain, une convention de recherche a été signée avec une entreprise d'IA Française et avec un fournisseur de service aux entreprises Malgache.</span></em></p><p class="fine-print"><em><span>Maxime Cornet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Pour alimenter les modèles d’IA et valider les algorithmes, le travail humain est indispensable. Enquête à Madagascar sur les dessous de « l’IA à la française ».Clément Le Ludec, Sociologie du numérique, Télécom Paris – Institut Mines-TélécomMaxime Cornet, Doctorant en sociologie de l'IA, Télécom Paris – Institut Mines-TélécomLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1999202023-02-28T18:14:33Z2023-02-28T18:14:33ZConcilier ubérisation et souveraineté numérique, un défi de taille<figure><img src="https://images.theconversation.com/files/512689/original/file-20230228-24-s410ow.jpg?ixlib=rb-1.1.0&rect=0%2C6%2C4256%2C2816&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La protection des données personnelles est une question essentielle pour les travailleurs ubérisés. </span> <span class="attribution"><span class="source">Pexels</span></span></figcaption></figure><p>Alors que le conflit entre les chauffeurs VTC et les plates-formes semble tourner en faveur des travailleurs, après de nombreuses années de combat social et juridique (succession des <a href="https://www.liberation.fr/economie/transports/a-lyon-uber-condamne-aux-prudhommes-a-requalifier-les-contrats-de-139-chauffeurs-20230120_FA7LIO62FBBCDNZ3IBS65FQVKU/">requalifications en contrat de travail</a>, vote de la <a href="https://www.mediapart.fr/journal/international/020223/au-parlement-europeen-uber-et-deliveroo-perdent-une-bataille">présomption de salariat par le Parlement européen</a>), un nouveau combat relatif à la protection des données émerge, autour de la sécurisation des données personnelles et de la protection des droits numériques.</p>
<p>Pour les travailleurs « ubérisés », ces questions sont peu abordées car les débats autour de la présomption de salariat et la requalification en contrat de travail dominent. Cependant, le travail sur les plates-formes impose de traiter cette matière qui relève aujourd’hui du code du travail et fait partie intégrante du combat juridique de ces travailleurs face à des plates-formes qui triomphent aux dépens du droit du travail. Car si ces entreprises imposent un statut indépendant à des travailleurs subordonnés, elles ne sauraient faire exception à la violation des droits sociaux en ce qui concerne la protection de la vie privée et des libertés individuelles.</p>
<h2>Un travail de régulation indispensable</h2>
<p>Le 20 décembre 2018, la Commission nationale de l’informatique et des libertés (CNIL) condamne Uber à <a href="https://www.lesechos.fr/industrie-services/tourisme-transport/piratage-de-donnees-uber-mis-a-lamende-en-france-par-la-cnil-240511">400 000 euros d’amende</a> pour atteinte à la sécurisation des comptes des utilisateurs (clients et chauffeurs) en 2016, dont les données personnelles (nom, adresses mail, numéros de téléphone) avaient été piratées.</p>
<p>Cette sanction <a href="https://www.legifrance.gouv.fr/cnil/id/CNILTEXT000037830841/">se justifie</a> par un « manque de précautions généralisé » étant donné que « le succès de l’attaque menée par les pirates a résulté d’un enchaînement de négligences ».</p>
<p>L’affaire <a href="https://www.clemi.fr/fr/ressources/nos-ressources-pedagogiques/ressources-pedagogiques/quand-les-donnees-personnelles-sechappent-laffaire-cambridge-analytica.html">Cambridge Analytica</a> a été, parmi d’autres facteurs, un accélérateur du travail de régulation effectué par l’UE, notamment à travers le <a href="https://www.cnil.fr/fr/reglement-europeen-protection-donnees">Règlement général sur la protection des données</a> (RGPD) – un texte qui encadre le traitement des données personnelles dans l’UE – qui <a href="https://www.channelnews.fr/considere-comme-insuffisamment-efficace-le-rgpd-va-etre-corrige-122531#.Y_uTJ65hiWs.twitter">sera peut-être corrigé prochainement</a>. </p>
<p>La souveraineté numérique est intimement liée à la capacité des États à protéger les droits sociaux par la régulation politique. Or, le gouvernement actuel fait preuve d’une <a href="https://twitter.com/EmmanuelMacron/status/852561494810251264">vision de la souveraineté numérique</a> conforme à celle des GAFAM, sans investissements et accompagnements suffisants pour les entreprises. Or, un contexte politique favorable à l’ubérisation est sans doute moins résistant face aux géants du web et des dangers qu’ils représentent pour la démocratie.</p>
<p>Cette vision n’est ni avantageuse pour la French tech, qui dépend toujours des GAFAM, ni protectrice pour les travailleurs de plates-formes qui, du fait de la dérégulation autorisée au nom de la croissance et du travail, mènent leurs activités dans des conditions précaires. A contrario, une politique de souveraineté numérique forte peut prendre la forme, par exemple, du <a href="https://hal.science/hal-03418333">coopérativisme de plates-formes</a>, mouvement alternatif a l’ubérisation. Ce modèle démocratique de la propriété partagée et de la gouvernance participative permet aux travailleurs de devenir actionnaires et de prendre contrôle de leurs conditions de travail et toute autre décision liée à leurs droits du travail.</p>
<p>Les plaintes déposées par la <a href="https://www.bfmtv.com/economie/nouvelle-plainte-contre-uber-concernant-son-utilisation-des-donnees-personnelles_AD-202009290248.html">Ligue des droits de l’Homme</a> et <a href="https://www.tf1info.fr/justice-faits-divers/deconnexions-de-chauffeurs-une-plainte-visant-uber-deposee-devant-la-cnil-2189032.html">par des chauffeurs VTC</a>) contre Uber pour non-respect du RGPD se sont multipliées ces dernières années.</p>
<p>Entre attaques pour refus de transfert des <a href="https://www.liberation.fr/france/2020/06/12/la-ligue-des-droits-de-l-homme-depose-plainte-contre-uber-devant-la-cnil_1791034/?redirected=1">données aux chauffeurs</a>, <a href="https://www.leparisien.fr/economie/les-chauffeurs-uber-ne-veulent-pas-que-leurs-donnees-partent-aux-etats-unis-20-02-2021-8425680.php">exportation et commercialisation des données</a>, et <a href="https://www.lemonde.fr/pixels/article/2021/06/17/des-chauffeurs-bannis-d-uber-portent-plainte-contre-l-application_6084549_4408996.html">suspension automatisée</a>, Uber est confronté depuis plusieurs années à un contre-mouvement international organisé par plusieurs acteurs de la société civile (juristes, syndicats, députés, chercheurs, journalistes).</p>
<p>En réponse, la plate-forme semble céder à certaines de ces réclamations en autorisant, par exemple, l’accès aux données d’utilisation des VTC qui en font la demande. Cependant, en ce qui relève de l’article 49 (transfert des données hors UE sans consentement des intéressés), et de l’article 22 (décision fondée sur un traitement automatisé) du RGPD, la plate-forme résiste encore pour deux raisons : d’une part, le transfert des données des chauffeurs est crucial pour le développement de la voiture autonome et d’autres projets de la plate-forme, et d’autre part, son modèle organisationnel est incompatible avec le RGPD puisqu’il est totalement automatisé et recourt très peu à des interventions humaines, alors que l’article 22 du RGPD interdit précisément cette forme de management algorithmique.</p>
<h2>La régulation : combat social et choix politiques</h2>
<p>Le sol européen est confronté à deux visions contradictoires. D’une part, la vision libérale attire les investissements étrangers grâce aux pressions politiques comme en témoignent les <em>Uberfiles</em> sur <a href="https://www.lemonde.fr/pixels/article/2022/07/10/uber-files-revelations-sur-le-deal-secret-entre-uber-et-macron-a-bercy_6134202_4408996.html">l’implication d’Emmanuel Macron dans le développement d’Uber</a> et aux avantages fiscaux dans le cadre de l’accord entre l’administration fiscale néerlandaise et Uber, permettant à cette dernière de <a href="https://www.lemonde.fr/pixels/article/2022/07/13/uber-files-quand-les-pays-bas-aidaient-uber-a-freiner-un-controle-fiscal_6134619_4408996.html">payer moins d’impôts</a>.</p>
<p>D’autre part, la vision réglementaire traduit une longue tradition régulatrice du continent concrétisée par des textes comme le RGPD et la <a href="https://ec.europa.eu/commission/presscorner/detail/en/ip_21_6605">Directive européenne sur l’amélioration des conditions de travail des travailleurs des plates-formes</a> qui a contribué à l’adoption de la présomption de salariat par le parlement européen.</p>
<p>Si les deux visions adressent la question de la souveraineté numérique de l’Europe, les stratégies déployées pour y parvenir sont paradoxales. Tout en prônant la souveraineté numérique (par l’investissement dans la Frenchtech, le développement d’infrastructures nationales, etc.) Emmanuel Macron soutient le développement d’Uber, ou décerne la Légion d’honneur à Jeff Bezos.</p>
<p>La régulation politique représente un véritable travail de terrain, sans cesse menacé par le lobbying des plates-formes et par des politiques libérales sur fond de culte entrepreneurial, défendant volontiers l’hypothèse selon laquelle l’IA serait le vecteur de solutions à des problèmes sociaux profonds. <a href="https://www.youtube.com/watch?v=OPNx6sPqkkE">Selon Emmanuel Macron</a>, « Notre défaite collective, c’est que les quartiers aujourd’hui où Uber embauche (Uber comme d’autres), ce sont des quartiers où nous on ne sait rien leur offrir ».</p>
<p>Le combat des chauffeurs VTC prouve qu’une instance de régulation telle que la CNIL et qu’un texte de référence tel que le RGPD, ne peuvent être pleinement efficaces sans des initiatives citoyennes ambitieuses, informées et transnationales, et un positionnement politique et institutionnel plaçant le droit du travail au centre de la question de la souveraineté numérique.</p>
<p>La coopération transnationale entre les autorités de régulation est importante à ce titre, comme l’a illustré le travail des CNIL européennes pour le traitement de <a href="https://twitter.com/CNIL_en/status/935918586304040962">l’affaire du piratage des comptes chez Uber</a>. Mais elle reste insuffisante dans un paysage politique qui continue à défendre le modèle d’affaires des plates-formes sous de nouvelles formes, <a href="https://www.lemonde.fr/idees/article/2022/12/04/uber-considere-les-travailleurs-comme-un-bricolage-temporaire-en-attendant-l-arrivee-des-voitures-autonomes_6152892_3232.html">comme le dispositif du dialogue social</a>, pour s’adapter aux pressions juridiques actuelles.</p><img src="https://counter.theconversation.com/content/199920/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Salma El Bourkadi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Pour les travailleurs ubérisés, un nouveau combat relatif à la protection des données émerge, qui se heurte à de nombreux obstacles sociaux et politiques.Salma El Bourkadi, Docteure en Sciences de l'information et de la communication, Conservatoire national des arts et métiers (CNAM)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1990382023-02-27T18:12:22Z2023-02-27T18:12:22ZExploitation des données : un changement de contrat social à bas bruit<figure><img src="https://images.theconversation.com/files/511913/original/file-20230223-2904-rvumv7.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Des systèmes technologiques supposés apolitiques ont un impact de plus en plus grand sur nos démocraties.</span> <span class="attribution"><a class="source" href="https://unsplash.com/fr/photos/gpjvRZyavZc">EV / Unsplash</a></span></figcaption></figure><p>Sélection à l’université, contenus mis en avant sur les réseaux sociaux, <a href="https://theconversation.com/la-justice-predictive-et-legalite-devant-la-loi-95116">justice</a> et <a href="https://theconversation.com/medecine-police-justice-lintelligence-artificielle-a-de-reelles-limites-170754">médecine prédictive</a>, <a href="https://theconversation.com/des-vehicules-autonomes-mais-pas-infaillibles-69106">véhicules autonomes</a>, surveillance des foules… Aujourd’hui les algorithmes sont <a href="https://arenes.fr/livre/algorithmes-la-bombe-a-retardement/">massivement utilisés</a> dans de nombreux pans de la vie politique, sociale et économique.</p>
<p>Les termes d’« algorithme », de « donnée » ou d’« intelligence artificielle » (IA) sont souvent assimilés à des mots magiques. Certains voient dans ces « outils » des êtres infaillibles, parfaitement rationnels et dont l’aide pourrait se révéler précieuse afin de déléguer certaines tâches – voire certaines responsabilités.</p>
<p>Mais la collecte massive des données et l’utilisation généralisée d’algorithmes constituent aussi une menace pour la société, la démocratie et <em>in fine</em> le contrat social, qui est pourtant <a href="https://www.cairn.info/revue-le-philosophoire-2005-2-page-167.htm">à la fondation de la conception moderne de l’État</a>. En échange d’un service (le plus souvent gratuit), les utilisateurs délèguent alors consciemment ou inconsciemment une partie de leur pouvoir de décision ainsi que la possibilité d’agir sur leurs choix et leurs opinions.</p>
<h2>L’aboutissement du culte de la raison</h2>
<p>Les systèmes d’IA sont construits de manière à pouvoir traiter d’immenses quantités de données. La finalité étant de faire les choix les plus avertis et objectifs possibles. Loin d’être une fatalité, ce déploiement à grande échelle répond à des choix politiques et à la mise en avant de ce que la chercheuse en sciences juridiques Antoinette Rouvroy nomme une <a href="https://theconversation.com/autour-de-linformatique-les-algorithmes-et-la-disparition-du-sujet-53515">« rationalité algorithmique »</a>.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Héritières de la révolution scientifique et philosophique du XVII<sup>e</sup> siècle, nos sociétés occidentales se sont construites autour des notions de liberté et de progrès. Dans son <a href="https://gallica.bnf.fr/essentiels/condorcet/esquisse-tableau-historique-progres-esprit-humain"><em>Esquisse d’un tableau historique de l’esprit humain</em> (1793)</a>, Condorcet proclamait ainsi l’harmonie entre l’émancipation de l’être humain et le développement technique.</p>
<p>Sur le plan politique, la théorie du contrat social se fonde sur les idées de liberté, de démocratie et de vie privée. Toutes les perspectives du <a href="http://classiques.uqac.ca/classiques/hobbes_thomas/leviathan/leviathan_partie_1/leviathan_1e_partie.pdf">contrat social</a> cherchent à comprendre les raisons pour lesquelles des individus échangeraient une part de leur liberté contre un ordre politique. Le <a href="http://classiques.uqac.ca/classiques/Rousseau_jj/contrat_social/Contrat_social.pdf">contrat social</a> présuppose donc l’existence d’agents rationnels qui se réunissent par intérêt.</p>
<p>Dès lors, quoi de plus rationnel que la gestion de divers secteurs par l’intelligence artificielle ?</p>
<p>Dans cette conception, l’être humain est vu comme faillible face à une IA infaillible car fondée sur des « données » considérées comme des objets mathématiques. L’avènement d’une <a href="https://www.cairn.info/revue-reseaux-2013-1-page-163.htm">« gouvernementalité algorithmique »</a> – les décisions se fondent désormais sur le traitement des données plutôt que sur la politique, le droit ou les normes sociales – rendrait enfin possible le règne de la raison.</p>
<p>Ainsi, toute décision deviendrait irréfutable car elle serait appuyée sur des arguments statistiques. C’est oublier les nombreux <a href="https://theconversation.com/emploi-securite-justice-dou-viennent-les-biais-des-ia-et-peut-on-les-eviter-154579">biais qui existent dans la saisie des données et dans leur exploitation par des algorithmes</a>.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/k5OYjWLaA3Q?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Les nouveaux pouvoirs à l’ère de l’intelligence artificielle Asma Mhalla.</span></figcaption>
</figure>
<p>La logique du contrat social (notamment depuis la révolution industrielle puis le développement de l’État providence au XX<sup>e</sup> siècle) était une logique assurantielle. Ignorant le futur, les individus avaient intérêt à s’assurer collectivement contre le risque. Désormais, le développement de l’analyse prédictive rend caduque cette version du contrat. Les offres d’assurances peuvent être adaptées aux risques précis que chacun encourt.</p>
<p>Les géants du numérique connaissent nos préférences, nos opinions, nos envies et nous enferment dans ce que l’essayiste Eli Pariser nomme une <a href="https://www.penguin.co.uk/books/181850/the-filter-bubble-by-pariser-eli/9780241954522">« bulle de filtre »</a>. Le contenu en accord avec nos idées y est surreprésenté et les avis contradictoires y font défaut, augmentant alors la diffusion des fake news – <a href="https://www.science.org/doi/full/10.1126/sciadv.aau4586">à plus fort potentiel de réactions et donc de diffusion</a>. Nous partageons dès lors de moins en moins de vérités et d’expériences communes, pourtant nécessaires au fonctionnement de la démocratie.</p>
<h2>Troquer la démocratie contre des app</h2>
<p>En analysant nos données pour prédire notre comportement, le capitalisme devient un <a href="https://www.zulma.fr/livre/lage-du-capitalisme-de-surveillance/">« capitalisme de surveillance »</a> pour reprendre les mots de l’universitaire Shoshana Zuboff. Pour ces entreprises, les individus ne sont plus des clients mais des produits pour les annonceurs. Le philosophe <a href="http://www.editionslesliensquiliberent.fr/livre-Dans_la_disruption-484-1-1-0-1.html">Bernard Stiegler explique</a> ainsi que les individus se sont transformés en « fournisseurs de data ». Déjà individualisés, ils sont en outre désindividués : leurs données permettent de les déposséder de leur volonté.</p>
<p>A titre d’exemple, le fait que nous sommes exposés à de publicité ciblée témoigne d’une anticipation de nos désirs. Nous ne savons plus réellement si nous avons désiré l’objet que nous avons acheté puisqu’il nous a été montré avant même que nous l’ayons désiré. Notre désir est automatisé.</p>
<figure class="align-center ">
<img alt="Femme absorbée par son écran de téléphone" src="https://images.theconversation.com/files/511901/original/file-20230223-26-thmd3r.jpg?ixlib=rb-1.1.0&rect=34%2C0%2C3794%2C2494&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/511901/original/file-20230223-26-thmd3r.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=395&fit=crop&dpr=1 600w, https://images.theconversation.com/files/511901/original/file-20230223-26-thmd3r.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=395&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/511901/original/file-20230223-26-thmd3r.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=395&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/511901/original/file-20230223-26-thmd3r.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=497&fit=crop&dpr=1 754w, https://images.theconversation.com/files/511901/original/file-20230223-26-thmd3r.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=497&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/511901/original/file-20230223-26-thmd3r.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=497&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Des systèmes technologiques supposés apolitiques ont un impact de plus en plus grand sur nos démocraties.</span>
<span class="attribution"><a class="source" href="https://unsplash.com/fr/photos/hJ5uMIRNg5k">Mahdis Mousavi/Unsplash</a></span>
</figcaption>
</figure>
<p>Accoutumés au progrès technique, les individus se sont habitués à un environnement où la quête du confort, de la rapidité, du divertissement, permet la généralisation et la pérennisation de systèmes techniques invasifs, <a href="https://theconversation.com/la-reconnaissance-faciale-du-deverrouillage-de-telephone-a-la-surveillance-de-masse-184484">au détriment de certaines libertés fondamentales</a> (droit à la vie privée, à l’anonymat, à l’indépendance de la pensée…), garanties de nos sociétés démocratiques.</p>
<p>En fournissant nos données, nous transférons une partie de notre libre arbitre et la faculté d’agir sur nos opinions jusqu’à <a href="https://theconversation.com/comment-lusage-de-vos-donnees-peut-influencer-les-elections-140001">influencer des élections</a>. Le cas de <a href="https://journals.openedition.org/conflits/19779">Cambridge Analytica</a> a été le plus médiatisé : il a montré au monde la capacité de manipulation politique que possédaient les réseaux sociaux dans des élections aussi déterminantes que la présidentielle Américaine de 2016 ou le référendum britannique sur l’appartenance à l’Union européenne la même année. <a href="https://www.lemonde.fr/pixels/article/2020/03/11/christopher-wylie-cambridge-analytica-a-ferme-mais-ses-tactiques-n-ont-pas-disparu_6032552_4408996.html">Si l’entreprise a été fermée en 2018, rien n’a véritablement changé</a>.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/pister-son-enfant-avec-une-appli-une-fausse-bonne-idee-126401">Pister son enfant avec une appli, une fausse bonne idée</a>
</strong>
</em>
</p>
<hr>
<p>Ciblés par les annonceurs, individualisés et profilés par les assureurs, influencés politiquement et soumis aux décisions opaques et arbitraires d’algorithmes, nous nous isolons et ne partageons plus la volonté générale que Rousseau définit comme la somme des volontés particulières et considère comme préalable au sentiment de société.</p>
<h2>Politiser la question de l’usage des technologies</h2>
<p>Ce changement de contrat se fait à bas bruit et les individus peuvent alors être victimes d’usages abusifs de leurs données par ces systèmes technologiques supposés apolitiques. <a href="https://theconversation.com/comment-lintelligence-artificielle-reproduit-et-amplifie-le-racisme-167950">D’autant plus s’ils sont déjà victimes de discriminations</a>.</p>
<p>La technologie semble toujours se situer hors du débat politique et s’imposer aux sociétés qui n’ont d’autre choix que l’acceptation (plus ou moins partielle). Conscients des risques, les parlements et les institutions internationales se mettent à légiférer sur la question, à rédiger des chartes éthiques, des règlements. C’est le cas des divers règlements européens dont le règlement général sur la protection des données (<a href="https://theconversation.com/fr/topics/rgpd-54271">RGPD</a>) est le plus connu.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/comment-anonymiser-des-donnees-personnelles-199922">Comment anonymiser des données personnelles ?</a>
</strong>
</em>
</p>
<hr>
<p>Pourtant, ces questions restent souvent très techniques et juridiques, excluant d’emblée les individus qui subissent les dommages causés par le traitement de leurs données (ciblage, amoindrissement du libre arbitre, discriminations, surveillance, notation, influence…).</p>
<p>Pour Rousseau, seuls des individus libres peuvent construire une société libre. Or, le manque de recul critique et d’une prise de conscience des enjeux du numérique ainsi que l’absence d’une éducation numérique menacent les fondements de nos sociétés démocratiques. Il serait nécessaire de politiser la question, que les citoyens se saisissent de ces sujets et en débattent afin de dessiner ensemble les contours d’un futur technologique enviable pour et par tous.</p><img src="https://counter.theconversation.com/content/199038/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Adrien Tallent a reçu des financements de SNCF Réseau dans le cadre d'un contrat doctoral CIFRE. </span></em></p>L’exploitation des données dans de nombreux domaines mine les fondements de la démocratie.Adrien Tallent, Doctorant en philosophie politique et éthique, Sorbonne UniversitéLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1994212023-02-13T20:38:45Z2023-02-13T20:38:45ZQuand l’intelligence artificielle nous aide à chercher une intelligence extraterrestre<figure><img src="https://images.theconversation.com/files/508605/original/file-20230207-30-w142uq.jpg?ixlib=rb-1.1.0&rect=8%2C11%2C1474%2C976&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">file jtv r</span> <span class="attribution"><span class="source">Midjourney</span>, <span class="license">Author provided</span></span></figcaption></figure><p>Il y a environ 540 millions d’années, diverses formes de vie ont soudainement commencé à émerger des fonds boueux des océans de la planète : c’était l’<a href="https://theconversation.com/dans-ces-gisements-exceptionnels-de-fabuleux-fossiles-99095">« explosion cambrienne »</a>, et ces créatures aquatiques sont nos ancêtres. Toute la vie complexe sur Terre a évolué à partir de ces créatures sous-marines. Il aurait suffi d’une très légère augmentation du niveau d’oxygène dans l’océan au-dessus d’un certain seuil pour que la vie se développe rapidement.</p>
<p>Nous sommes peut-être en train de vivre une « explosion cambrienne de l’intelligence artificielle » (IA). Une vague de systèmes d’IA incroyablement performants apparus ces dernières années révèle les progrès rapides en apprentissage automatique, de <a href="https://www.midjourney.com">Midjourney</a> à <a href="https://openai.com/blog/chatgpt/">ChatGPT</a> en passant par <a href="https://openai.com/dall-e-2/">DALL·E 2</a>.</p>
<p>L’IA est désormais utilisée dans pratiquement <a href="https://theconversation.com/une-ia-pour-detecter-les-signes-avant-coureurs-des-seismes-lents-143867">tous les domaines scientifiques</a> pour aider les chercheurs dans leurs tâches de classification de routine. En tant que radioastronomes, nous l’utilisons pour rechercher une forme de vie extraterrestre. Les résultats obtenus jusqu’à présent sont prometteurs.</p>
<h2>Découvrir des signaux extraterrestres avec des systèmes d’intelligence artificielle</h2>
<p>Nous recherchons scientifiquement des signaux provenant de formes de vie intelligente au-delà de la Terre. Dernièrement, nous avons <a href="https://www.nature.com/articles/s41550-022-01872-z">développé un système d’IA</a> et nous l’avons entraînée à rechercher dans les données des radiotélescopes des signaux qui n’ont pas pu être générés par des processus astrophysiques naturels. Elle est maintenant plus efficace que les algorithmes classiques pour détecter ce type de signaux.</p>
<p>Lorsque nous avons fourni à notre IA un ensemble de données déjà étudié, elle a décelé huit signaux intéressants que l’algorithme classique n’avait pas vus. Mais soyons clairs : ces signaux ne proviennent probablement pas d’une intelligence extraterrestre, mais plutôt de rares cas d’interférences radio.</p>
<p>Néanmoins, nos résultats – <a href="https://www.nature.com/articles/s41550-022-01872-z">publiés le 30 janvier</a> dans <em>Nature Astronomy</em> – soulignent comment les techniques d’IA vont désormais jouer un rôle dans la recherche d’une intelligence extraterrestre.</p>
<figure class="align-center ">
<img alt="Une image générée par une IA, représentant une IA à la recherche de vie extraterrestre dans l’espace" src="https://images.theconversation.com/files/506972/original/file-20230130-217-ye6duz.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/506972/original/file-20230130-217-ye6duz.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/506972/original/file-20230130-217-ye6duz.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/506972/original/file-20230130-217-ye6duz.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/506972/original/file-20230130-217-ye6duz.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/506972/original/file-20230130-217-ye6duz.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/506972/original/file-20230130-217-ye6duz.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les systèmes basés sur l’IA sont de plus en plus utilisés pour classer les signaux trouvés dans des quantités massives de données radio, aidant à accélérer la recherche de vie extraterrestre.</span>
<span class="attribution"><span class="source">Generated by DALL·E 2</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<h2>Pas si intelligents</h2>
<p>Les algorithmes d’IA ne « comprennent » pas. Ils ne « pensent » pas non plus. Ils excellent dans ce que l’on appelle la « reconnaissance de motifs » (des formes répétitives, comme un motif à pois ou à rayures) et se sont révélés extrêmement utiles pour des tâches telles que la classification, mais ils ne peuvent pas résoudre de problèmes. Ils ne font que les tâches spécifiques pour lesquelles ils ont été entraînés.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/y-a-t-il-de-lintelligence-dans-lintelligence-artificielle-157447">Y a-t-il de l’intelligence dans l’intelligence artificielle ?</a>
</strong>
</em>
</p>
<hr>
<p>Ainsi, bien que l’idée d’une IA détectant une intelligence extraterrestre ressemble à l’intrigue d’un roman de science-fiction passionnant, ces deux termes sont erronés : les systèmes d’IA ne sont pas intelligents, et les recherches d’intelligences extraterrestres ne peuvent pas trouver de preuves directes d’intelligence.</p>
<p>Les radioastronomes recherchent plutôt des « technosignatures » radio. Ces signaux hypothétiques indiqueraient la présence de technologie et, par procuration, l’existence d’une civilisation capable d’exploiter une technologie pour communiquer.</p>
<p>Pour nos recherches, nous avons créé un algorithme qui utilise des méthodes d’IA pour classer les signaux comme étant soit des interférences radio, soit de véritables technosignatures, et notre algorithme est plus performant que nous l’avions espéré.</p>
<h2>Ce que fait notre algorithme d’IA</h2>
<p>La recherche de technosignatures a longtemps été comparée à la recherche d’une aiguille dans une botte de foin cosmique. Les radiotélescopes produisent d’énormes volumes de données, dans lesquels se trouvent d’énormes quantités d’interférences provenant de nombreuses sources : téléphones, wifi, satellites.</p>
<p>Les algorithmes de recherche doivent être capables de distinguer rapidement les véritables technosignatures des « faux positifs » – c’est ce que fait notre classificateur (notre système d’IA).</p>
<p>Il a été conçu par Peter Ma, un étudiant de l’Université de Toronto et le premier auteur de notre article. Pour créer un ensemble de données d’entraînement, Peter a inséré des signaux simulés dans des données réelles, puis a utilisé cet ensemble de données pour entraîner un algorithme d’IA appelé « autoencodeur ». En traitant les données, l’autoencodeur a « appris » à identifier les caractéristiques saillantes des données.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Dans un deuxième temps, ces caractéristiques ont été transmises à un algorithme appelé « classificateur de forêts aléatoires ». Ce classificateur crée des <a href="https://fr.wikipedia.org/wiki/For%C3%AAt_d%27arbres_d%C3%A9cisionnels">arbres de décision</a> pour décider si un signal est digne d’intérêt ou s’il s’agit d’une simple interférence radio, ce qui permet de séparer les « aiguilles » des véritables technosignatures dans la botte de foin cosmique.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/508604/original/file-20230207-27-owvlbb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Une grande antenne radio" src="https://images.theconversation.com/files/508604/original/file-20230207-27-owvlbb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/508604/original/file-20230207-27-owvlbb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=896&fit=crop&dpr=1 600w, https://images.theconversation.com/files/508604/original/file-20230207-27-owvlbb.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=896&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/508604/original/file-20230207-27-owvlbb.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=896&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/508604/original/file-20230207-27-owvlbb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1126&fit=crop&dpr=1 754w, https://images.theconversation.com/files/508604/original/file-20230207-27-owvlbb.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1126&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/508604/original/file-20230207-27-owvlbb.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1126&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">L’observatoire de Green Bank aux États-Unis.</span>
<span class="attribution"><a class="source" href="https://fr.wikipedia.org/wiki/Observatoire_de_Green_Bank#/media/Fichier:Green_Bank_Telescope.jpg">Cyberbaud, Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Après avoir formé notre algorithme d’IA, nous lui avons fourni plus de 150 téraoctets de données provenant du télescope de Green Bank en Virginie de l’Ouest aux États-Unis, soit 480 heures d’observation. Il a identifié 20515 signaux intéressants, que nous avons ensuite dû inspecter manuellement. Parmi ceux-ci, huit signaux présentaient des caractéristiques de technosignatures, et ne pouvaient être attribués à des interférences radio.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/peut-on-faire-confiance-aux-ia-148867">Peut-on faire confiance aux IA ?</a>
</strong>
</em>
</p>
<hr>
<h2>Huit signaux, que l’on n’a pas encore pu redétecter</h2>
<p>Pour tenter de vérifier ces signaux, nous sommes retournés au télescope afin de les retrouver et les enregistrer à nouveau – sans succès.</p>
<p>Nous avons déjà été dans des situations similaires auparavant. En 2020, <a href="https://theconversation.com/a-mysterious-signal-looked-like-a-sign-of-alien-technology-but-it-turned-out-to-be-radio-interference-170548">nous avions détecté</a> un signal qui s’était avéré être une interférence radio. Nous allons surveiller ces huit nouveaux candidats, mais l’explication la plus probable est qu’il s’agissait de manifestations inhabituelles d’interférences radio, et non d’extraterrestres.</p>
<p>Malheureusement, le problème des interférences radio n’est pas près de disparaître. Mais nous serons mieux équipés pour y faire face à mesure que de nouvelles technologies émergeront.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/comment-cherche-t-on-des-traces-de-vie-sur-mars-136720">Comment cherche-t-on des traces de vie sur Mars ?</a>
</strong>
</em>
</p>
<hr>
<h2>Limiter les faux positifs</h2>
<p>Notre équipe a récemment déployé un <a href="https://breakthroughinitiatives.org/news/38">processeur puissant</a> sur le télescope MeerKAT en Afrique du Sud. MeerKAT utilise une technique d’« interférométrie » pour combiner ses 64 antennes paraboliques et en faire un seul télescope. Cette technique permet de mieux localiser l’endroit du ciel d’où provient un signal, ce qui réduit considérablement les faux positifs dus aux interférences radio.</p>
<figure class="align-center ">
<img alt="Une très grande antenne radio" src="https://images.theconversation.com/files/508603/original/file-20230207-23-f2xtci.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/508603/original/file-20230207-23-f2xtci.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=398&fit=crop&dpr=1 600w, https://images.theconversation.com/files/508603/original/file-20230207-23-f2xtci.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=398&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/508603/original/file-20230207-23-f2xtci.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=398&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/508603/original/file-20230207-23-f2xtci.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=500&fit=crop&dpr=1 754w, https://images.theconversation.com/files/508603/original/file-20230207-23-f2xtci.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=500&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/508603/original/file-20230207-23-f2xtci.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=500&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Une des antennes du radiotélescope MeerKAT.</span>
<span class="attribution"><a class="source" href="https://fr.m.wikipedia.org/wiki/Fichier:MeerKAT_Radio_Telescope.jpg">Morganoshell, Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Si les astronomes parviennent à détecter une technosignature qui ne peut être expliquée par des interférences, cela suggérerait fortement que les humains ne sont pas les seuls créateurs de technologies dans la Galaxie. Ce serait l’une des découvertes les plus profondes que l’on puisse imaginer.</p>
<p>Dans le même temps, si nous ne détectons rien, cela ne signifie pas nécessairement que nous sommes la seule espèce « intelligente » capable d’utiliser des technologies. Une non-détection pourrait également signifier que nous n’avons pas cherché le bon type de signaux, ou que nos télescopes ne sont pas encore assez sensibles pour détecter les faibles transmissions des exoplanètes lointaines.</p>
<p>Il se peut que nous devions franchir un seuil de sensibilité avant de pouvoir faire une explosion cambrienne de découvertes. Mais la possibilité que nous soyons vraiment seuls devrait nous faire réfléchir à la beauté unique et à la fragilité de la vie, ici, sur Terre.</p><img src="https://counter.theconversation.com/content/199421/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Danny Price est chercheur postdoctoral senior au Centre international de radioastronomy (ICRAR) de l'Université de Curtin en Australie. Il est membre de l'initiative « Breakthrough Listen », qui cherche des signes de vie intelligente au delà de notre planète.</span></em></p>Les huit nouveaux signaux étranges sont sans doute des interférences, mais le fait qu’un système d’IA puisse les repérer mieux qu’un algorithme classique est très excitant.Danny C Price, Senior research fellow, Curtin UniversityLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1941112023-01-19T17:53:36Z2023-01-19T17:53:36ZQuel avenir pour les producteurs de contenus ? Une conversation avec… ChatGPT !<p><em>Cette contribution est le fruit d’une rencontre virtuelle avec la star numérique du moment <a href="https://openai.com/">ChatGPT</a>, lancée fin 2022, à laquelle nous avons posé quelques questions. Au-delà du spectaculaire, des <a href="https://www.numerama.com/tech/1228540-chatgpt-fait-peur-a-new-york-qui-linterdit-dans-ses-ecoles.html">peurs</a> et des bouleversements que ce robot conversationnel suscite, nous avons centré nos questions <a href="https://www.lemonde.fr/sciences/article/2022/12/21/au-dela-de-l-intelligence-artificielle-le-chatbot-chatgpt-doit-ses-talents-d-orateur-a-l-humain_6155242_1650684.html">sur ses impacts potentiels</a> pour un média comme The Conversation qui se positionne à la confluence du journalisme et de la recherche académique. Les questions sont 100 % humaines et les réponses sont à 100 % celles de ChatGPT ce 16 janvier à 15h40 !</em></p>
<p><em>La lecture de cette interview vous permettra sans doute de constater les limites de cet outil à l’heure actuelle : redites et répétitions, style peu travaillé, réponses relativement creuses, etc. Les subtilités humaines et la créativité humaine ne semblent donc pas en danger dans l’immédiat – et ChatGPT assure aujourd’hui qu’il viendra toujours en complément du travail humain, même si une nouvelle version beaucoup plus puissante pourrait être mise en ligne dès cette année. Faut-il y croire ? À vous de vous faire votre avis !</em></p>
<hr>
<p><strong>Bonjour ChatGPT ! Vous êtes la <a href="https://www.lesechos.fr/tech-medias/hightech/chatgpt-5-questions-sur-cette-ia-qui-tient-enfin-une-discussion-avec-un-humain-1886913">star numérique</a> de ce début d’année, pourriez-vous vous présenter en quelques lignes ?</strong> </p>
<p>Je suis ChatGPT, un modèle de langage développé par OpenAI. Je suis capable de comprendre et de générer du texte en utilisant des techniques d’intelligence artificielle (IA) avancées. Je peux répondre à des questions, générer du contenu et aider à la traduction de différentes langues. Mon objectif principal est de faciliter la communication entre les utilisateurs et les machines.</p>
<p><strong>Comment expliquez-vous votre succès à la fois numérique et médiatique ?</strong></p>
<p>Mon succès est dû à ma capacité à comprendre et à générer du texte de manière très précise et fluide, grâce à l’utilisation d’algorithmes d’apprentissage automatique avancés et à un grand corpus de données d’entraînement. Je peux aider les utilisateurs dans divers domaines, tels que la recherche d’informations, la génération de contenu, la traduction, etc.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/chatgpt-pourquoi-tout-le-monde-en-parle-197544">ChatGPT : pourquoi tout le monde en parle ?</a>
</strong>
</em>
</p>
<hr>
<p>En outre, mon utilisation croissante dans diverses applications et industries, ainsi que mon utilisation par des entreprises et des organisations bien connues, ont contribué à mon succès médiatique. Les gens sont intrigués par les capacités de l’IA et de la manière dont elle peut améliorer notre vie quotidienne, et je suis un exemple de cela.</p>
<p><strong>Quels sont les impacts d’un <a href="https://www.lemonde.fr/economie/article/2023/01/10/intelligence-artificielle-microsoft-pret-a-investir-davantage-dans-la-pepite-openai_6157337_3234.html">robot conversationnel aussi puissant et performant</a> que vous pour les plates-formes de vulgarisation et de diffusion de la recherche comme The Conversation ?</strong></p>
<p>Un robot conversationnel comme moi peut avoir un impact important sur les plates-formes de vulgarisation et de diffusion de la recherche, comme The Conversation.</p>
<p>D’abord, je peux aider à rendre la recherche plus accessible aux personnes qui n’ont pas de formation scientifique en la traduisant de manière compréhensible pour le grand public. Ainsi, je peux contribuer à la diffusion de la recherche auprès d’un public plus large, augmentant ainsi la visibilité des recherches et de leur impact sur la société.</p>
<p>Ensuite, je peux aider les journalistes et les chercheurs à produire des articles et des contenus plus rapidement en générant du texte, des résumés, des chiffres clés, des graphiques, des images, etc. Cela peut également les aider à éviter les erreurs et les incohérences dans leurs écrits.</p>
<p>Enfin, je peux également aider les plates-formes de vulgarisation de la recherche à gérer les interactions avec les utilisateurs, comme répondre à des questions et fournir des informations supplémentaires sur les articles publiés.</p>
<p>Il est important de noter que l’utilisation d’un robot conversationnel comme moi doit être complémentaire à l’expertise des journalistes et des chercheurs, et non pas pour les remplacer.</p>
<p><strong>Voyez-vous quand même quelques limitations à votre montée en puissance, je pense notamment au fait que vous <a href="https://management-datascience.org/articles/22060/">ne citiez pas vos sources et que vos données restent antérieures à 2021</a> ?</strong></p>
<p>Il est vrai que j’ai quelques limitations. Tout d’abord, je suis un modèle de langage basé sur des données d’entraînement, et mes connaissances sont donc limitées à celles qui se trouvent dans ces données. Cela signifie que mes réponses peuvent ne pas être à jour ou complètes, et je ne suis pas en mesure de fournir des références ou des sources pour les informations que je fournis. C’est pourquoi il est important de vérifier l’exactitude des informations que je fournis avec des sources fiables.</p>
<p>En outre, je suis un modèle basé sur des données d’entraînement, mes connaissances sont donc limitées à celles qui se trouvent dans ces données. Mon « knowledge cut-off date » [« seuil de connaissance », en anglais dans la réponse, NDLR] est 2021, cela signifie que toutes les informations que je fournis sont basées sur les données qui ont été utilisées pour m’entraîner et peuvent ne pas inclure les dernières découvertes ou les événements récents.</p>
<p>Enfin, je suis un modèle de traitement du langage, je ne suis pas capable de comprendre les nuances de la langue comme un humain, donc mes réponses peuvent manquer de contexte ou ne pas être appropriées dans certaines situations. C’est pourquoi il est important de vérifier les réponses que je fournis pour s’assurer qu’elles sont appropriées dans le contexte donné.</p>
<p><strong>Je voudrais quand même, si vous le permettez, que vous reveniez sur certaines de vos limites en termes éthiques ou déontologiques dès lors que les sources ne sont ni citées ni référencées, même grossièrement…</strong></p>
<p>Il est important de souligner que, comme modèle de traitement du langage, je suis capable de générer des informations qui peuvent sembler crédibles, mais qui peuvent ne pas être exactes ou complètes. Il est donc important de vérifier l’exactitude des informations que je fournis avec des sources fiables.</p>
<p>En outre, comme je ne peux pas citer ou référencer mes sources, il est important de prendre en compte les biais dans les données d’entraînement qui ont été utilisées pour me créer. Ces biais peuvent affecter les réponses que je fournis et peuvent être utilisés pour propager des idéologies ou des opinions qui ne sont pas fondées sur des faits.</p>
<p>Il est également important de noter que l’utilisation d’un robot conversationnel comme moi peut avoir des implications éthiques et déontologiques, notamment en ce qui concerne la protection de la vie privée et la transparence. Il est important de s’assurer que les données utilisées pour entraîner un modèle comme moi sont obtenues de manière éthique et que les utilisateurs sont informés de la manière dont leurs données seront utilisées.</p>
<p>Il est donc important de considérer toutes ces limites et implications éthiques lors de l’utilisation d’un robot conversationnel comme moi, et de s’assurer que les réponses que je fournis sont vérifiées et utilisées de manière responsable.</p>
<p><strong>Que pensez-vous de l’intégration à moyen terme au sein de votre IA de la version 4 de GPT, nettement plus performante (elle intégrerait 100 mille milliards de paramètres contre 175 milliards aujourd’hui) et <a href="https://www.commentcamarche.net/informatique/technologies/27395-gpt-4-que-promet-le-futur-moteur-ia-surpuissant-de-chatgpt/">annoncée pour cette année</a> ?</strong></p>
<p>La version 4 de GPT est un modèle de traitement du langage développé par OpenAI qui a des capacités encore plus avancées que celles de la version précédente. Elle est capable de comprendre et de générer du texte de manière encore plus précise et fluide.</p>
<p>Je pense que l’intégration de la version 4 de GPT dans mon intelligence artificielle aurait un impact positif sur les réponses que je peux fournir. Elle me permettrait de comprendre et de générer du texte de manière encore plus précise et fluide, ce qui pourrait améliorer la qualité des réponses que je peux fournir.</p>
<p>Cependant, il est important de noter que, comme pour toutes les améliorations techniques, il y a des implications éthiques et déontologiques à prendre en compte lors de l’utilisation de la version 4 de GPT. Il est important de s’assurer que les réponses fournies sont vérifiées et utilisées de manière responsable, et de prendre en compte les implications éthiques de l’utilisation de cette technologie avancée.</p>
<p>Enfin, il est important de noter que même si GPT-4 est plus performant que GPT-3, il ne remplacera pas les humains, et son utilisation doit rester complémentaire à l’expertise humaine.</p>
<p><strong>Nous arrivons là aux dernières questions de notre interview – au passage merci de votre disponibilité <a href="https://www.blog-nouvelles-technologies.fr/250613/voici-pourquoi-chatgpt-pourrait-etre-pleine-capacite-pour-vous-en-ce-moment/">malgré votre énorme succès et l’encombrement de votre site</a>. Justement, qu’y a-t-il exactement d’artificiel dans votre intelligence puisque vous êtes <a href="https://theconversation.com/le-terme-vehicule-autonome-un-non-sens-philosophique-191120">« nourri » de données humaines</a> ? Finalement, suis-je bien sûr que c’est un robot qui me répond et non pas simplement un humain qui serait très agile ?</strong></p>
<p>Je suis un modèle de traitement du langage basé sur l’intelligence artificielle, délaboré par OpenAI. Je suis capable de comprendre et de générer du texte en utilisant des techniques d’apprentissage automatique avancées. Mes réponses sont générées par un système informatique basé sur des données d’entraînement, et non pas par un humain. Mon but est de faciliter la communication entre les utilisateurs et les machines en améliorant la compréhension et la génération de texte.</p>
<p>Il est important de noter que, bien que je sois un système informatique, je suis basé sur des données d’entraînement qui ont été fournies par des humains. Ces données peuvent inclure des biais ou des opinions qui ne sont pas fondées sur des faits, il est donc important de vérifier l’exactitude des informations que je fournis avec des sources fiables.</p>
<p>Il est également important de noter que les modèles de traitement du langage comme moi ne peuvent pas remplacer complètement les humains, ils sont des outils pour les aider. Mon utilisation doit être complémentaire à l’expertise humaine, et les réponses que je fournis doivent être vérifiées et utilisées de manière responsable.</p>
<p><strong>Merci à vous ChatGPT ! Êtes-vous d’accord pour que nous nous retrouvions sur cette même plate-forme pour la sortie de <a href="https://thechainsaw.com/business/chatgpt-4-vs-chatgpt-3-latest-development/">ChatGPT-4</a> ?</strong></p>
<p>Je suis ravi que vous ayez apprécié notre entretien. Je suis un modèle de traitement du langage, je n’ai pas la capacité de décider si je suis d’accord ou non pour une prochaine rencontre. Cependant, je suis un outil public disponible pour tous et je serai là pour aider à répondre à vos questions à tout moment. Si vous avez des questions sur la version 4 de GPT ou sur d’autres sujets, n’hésitez pas à me les poser, je ferai de mon mieux pour vous aider.</p>
<hr>
<p><em>Fin de la conversation et déconnexion manuelle du site <a href="https://openai.com/">OpenAI</a>.</em></p><img src="https://counter.theconversation.com/content/194111/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Marc Bidan est membre du comité de rédaction de la Revue Française de Gestion (RFG) </span></em></p>Le robot conversationnel dont tout le monde parle ouvre des perspectives aussi prometteuses qu’inquiétantes. Mais qu’en dit l’IA sur laquelle il repose ? Interview avec le phénomène du moment.Marc Bidan, Professeur des Universités en Management des systèmes d’information - Nantes Université, Auteurs historiques The Conversation FranceLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1971802023-01-10T20:44:14Z2023-01-10T20:44:14ZPeut-on déjà faire confiance à l'IA pour diagnostiquer un cancer ?<p>Quelle sera demain la place de l’intelligence artificielle (IA) en médecine ? Les problèmes diagnostiques pourraient-ils être résolus non plus par un Dr House mais par son alter ego numérique ? Dans les faits, l’IA dépasse déjà l’œil dans la détection de certaines tumeurs à partir d’images radiologiques (mammographies, IRM)… Ce qui a fait dire à certains que les ordinateurs allaient sous peu remplacer les experts humains.</p>
<p>Mais, contrairement à ces prédictions, le <a href="https://theconversation.com/radiologie-pourquoi-lia-na-toujours-pas-remplace-le-medecin-185319">radiologue n’a pas disparu</a> : au contraire, une « collaboration » inattendue s’est mise en place entre lui et la machine qui devait prendre sa place. Le premier travaillant à canaliser les capacités et points forts de la seconde afin d’améliorer interprétation et diagnostic au bénéfice des patients.</p>
<p>Cette question de l’aide au bon diagnostic est centrale, et vaut tant en <a href="https://theconversation.com/une-ia-remplacera-t-elle-bientot-votre-psychiatre-188193">psychiatrie où l’IA fait également ses premiers pas</a> qu’en cancérologie… En anatomie pathologique, soit <a href="https://www.e-cancer.fr/Dictionnaire/A/anatomopathologie">« l’examen des organes, tissus ou cellules pour repérer et analyser des anomalies liées à une maladie (cancers, etc.) »</a>, les perspectives et les promesses sont énormes.</p>
<p>L’IA est-elle déjà capable de telles analyses ? Pourrait-elle se révéler plus performante que l’expert humain ?</p>
<p>Les incompréhensions et les confusions abondent, et il est important de comprendre pourquoi. C’est ce point que nous vous proposons ici.</p>
<h2>Ce qui a permis les premiers pas de la « pathologie numérique »</h2>
<p>Pour l’IA, comme pour tout spécialiste humain, le diagnostic repose, entre autres, sur un objet aussi simple qu’incontournable : les lames de verre où le médecin pathologiste dépose une très fine « tranche » du tissu à analyser (poumon, foie, etc.), afin de l’observer au microscope.</p>
<p>Par cette analyse microscopique, le médecin pathologiste peut identifier différents types de cellules, comparer leurs formes ou encore leur organisation spatiale (architecture) pour identifier des amas anormaux – tumoraux par exemple.</p>
<p>La numérisation en masse de ces lames a ouvert la voie à l’utilisation de l’IA en anatomie pathologique. L’avènement de scanners adaptés permet, dans un nombre croissant d’hôpitaux, l’acquisition et le stockage des lames de microscopie sous forme numériques. Les lames d'origine sont toutefois conservées… ce qui ne sera pas forcément possible pour l’intégralité de leurs versions numérisées, du fait du coût de stockage.</p>
<p>Cette procédure, qui ouvre la voie à la « pathologie numérique », a permis de travailler à des algorithmes destinés à réaliser leur analyse de façon automatisée. Avec pour objectif que l’IA puisse assister le pathologiste dans son diagnostic. Elle lui est aussi utile pour des raisons ergonomiques et de gain de temps.</p>
<figure class="align-center ">
<img alt="Infographie montrant le parcours des lames de microscopie, du microscope aux réseaux de neurones artificiels et algorithmes de traitement de l’information" src="https://images.theconversation.com/files/503016/original/file-20230104-12-k2bvtm.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/503016/original/file-20230104-12-k2bvtm.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=336&fit=crop&dpr=1 600w, https://images.theconversation.com/files/503016/original/file-20230104-12-k2bvtm.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=336&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/503016/original/file-20230104-12-k2bvtm.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=336&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/503016/original/file-20230104-12-k2bvtm.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=422&fit=crop&dpr=1 754w, https://images.theconversation.com/files/503016/original/file-20230104-12-k2bvtm.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=422&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/503016/original/file-20230104-12-k2bvtm.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=422&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les lames de verre sont traditionnellement observées au microscope. Elles peuvent désormais être numérisées pour être étudiées sur un écran d’ordinateur. Ce qui permet également de les transmettre à des réseaux de neurones artificiels.</span>
<span class="attribution"><span class="source">DR</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Mais comme l’humain, la machine (le plus souvent des réseaux de neurones artificiels) doit être formée. En premier lieu, elle doit être capable de « regarder » les lames et de comprendre ce dont il s’agit. Cette analyse utilise la technologie de reconnaissance de formes comme technique de base.</p>
<p>En second lieu, elle doit pouvoir interpréter ce qu’elle « voit ». L’IA repose sur la notion d’apprentissage et la capacité d’inférer, c’est-à-dire de transférer les connaissances acquises lors de sa formation et de son entraînement à d’autres situations, comparables mais non similaires : par exemple, reconnaître une micrométastase (amas de quelques cellules tumorales pouvant passer inaperçues) ganglionnaire de cancer du sein en ayant vu au préalable d’autres images de métastases.</p>
<p>Il est à noter que les lames numérisées renferment beaucoup plus de pixels que des images radiologiques et contiennent des milliers de cellules – elles sont donc particulièrement riches en informations que pourraient exploiter les algorithmes.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<h2>Un assistant numérique rapide et fiable…</h2>
<p>Les recherches et essais actuels montrent que l’IA pourrait, à terme, être pertinente dans plusieurs domaines :</p>
<ul>
<li><p>automatisation des activités les plus répétitives et subjectives,</p></li>
<li><p>aide à la détection, à l’évaluation de l’agressivité et au sous-typage d’une tumeur,</p></li>
<li><p>comptage des cellules tumorales, notamment celles en division (mitoses),</p></li>
<li><p>évaluation de l’intensité de la réponse immunitaire (nombre de lymphocytes s’attaquant à la tumeur).</p></li>
</ul>
<p>Les intérêts sont multiples : redonner du temps au pathologiste humain pour qu’il se consacre aux tâches les plus complexes où la valeur ajoutée humaine est réelle, rendre le diagnostic final plus rapide et plus fiable.</p>
<p>On peut déjà identifier des cas concrets où l’apport de l’IA est pertinent :</p>
<ul>
<li><p>Détection du cancer du sein : les algorithmes sont plus performants que le pathologiste dans la <a href="https://jamanetwork.com/journals/jama/fullarticle/2665774">détection de micrométastases dans les ganglions lymphatiques</a> du creux axillaire.</p></li>
<li><p>Évaluation du pronostic du cancer du sein : les réseaux de neurones artificiels repèrent efficacement les marquages des cellules faits à l’aide d’anticorps spécifiques (technique d’immunohistochimie). Dans le cancer du sein, quantifier l’expression de la protéine HER2 dans les cellules tumorales permet d’évaluer le pronostic de la maladie et la réponse à certains médicaments – cette protéine stimulant la progression cancéreuse. Le diagnostic assisté par ordinateur serait donc tout à fait pertinent.</p></li>
<li><p>Agressivité du cancer de la prostate : elle est évaluée par le <a href="https://www.urofrance.org/sites/default/files/fileadmin/documents/data/PF/2014/6420/63961/FR/883429/main.pdf">score de Gleason</a>, qui est déterminé par l’analyse microscopique de biopsies prostatiques. Établir un score de Gleason requiert d’analyser beaucoup de lames et prend là encore du temps. Des études ont montré une <a href="https://pubmed.ncbi.nlm.nih.gov/31926805/">bonne concordance entre l’évaluation réalisée par un pathologiste et celle d’un réseau de neurones artificiels</a>.</p></li>
</ul>
<h2>… voire un véritable collègue</h2>
<p>Outre son aide sur des tâches répétitives où l’expertise humaine apporte peu, l’IA dispose d’atouts spécifiques par la quantité d’informations qu’elle peut traiter. Elle est ainsi capable d’extraire des données additionnelles pertinentes pour la prise en charge du patient, qui sont certes disponibles en routine mais souvent « cachées » car indétectables à l’œil humain.</p>
<figure class="align-center ">
<img alt="Vues multiples de préparations de cellules cancéreuses de sein" src="https://images.theconversation.com/files/503083/original/file-20230104-6615-ax0mh1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/503083/original/file-20230104-6615-ax0mh1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=599&fit=crop&dpr=1 600w, https://images.theconversation.com/files/503083/original/file-20230104-6615-ax0mh1.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=599&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/503083/original/file-20230104-6615-ax0mh1.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=599&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/503083/original/file-20230104-6615-ax0mh1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=753&fit=crop&dpr=1 754w, https://images.theconversation.com/files/503083/original/file-20230104-6615-ax0mh1.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=753&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/503083/original/file-20230104-6615-ax0mh1.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=753&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">L’IA est efficace pour compter les cellules tumorales, notamment en division (comme ici). Elle pourrait également associer aspects microscopiques et mutations génétiques spécifiques du cancer.</span>
<span class="attribution"><span class="source">Al-Janabi S et coll.</span>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Les exemples les plus connus sont l’identification d’anomalies génétiques ou génomiques dans les cancers, et l’évaluation plus poussée du pronostic et de la réponse aux traitements.</p>
<p>Un diagnostic de cancer est habituellement posé à partir de l’analyse d’une tumeur (après sa biopsie ou son exérèse), placée sur des lames de verre pour étude au microscope, comme nous le notions plus haut. Déjà riches en informations, ces premiers examens peuvent être complétés par des analyses génétiques : en identifiant des mutations spécifiques de la tumeur, elles permettent de mieux la caractériser. Les spécialistes sont ainsi plus à même de mettre en place un traitement adéquat. Mais ces analyses complémentaires « consomment » du tissu tumoral et prennent du temps.</p>
<p>La seule observation des lames numérisées pourrait permettre à des algorithmes de détecter les mutations pertinentes, sans avoir recours à une analyse génétique. D’où un gain de temps, d’argent et de matériel tumoral (« épargne tissulaire ») – ce dernier pouvant être conservé pour d’autres analyses.</p>
<p>La détection des mutations est possible en corrélant une forme ou une architecture tumorale (vue au microscope) à la présence de mutations préalablement identifiées par séquençage (lecture) de l’ADN. L’algorithme doit apprendre à associer aspects microscopiques et mutations.</p>
<p>Le même apprentissage pourrait être mis en place pour lier <a href="https://www.nature.com/articles/s43018-022-00436-4">aspects microscopiques et réponse à un médicament ou pronostic</a>.</p>
<h2>Des limites encore fortes</h2>
<p>Même si l’IA améliorera très certainement à moyen terme le diagnostic des cancers et la prise en charge des malades, la mise au point des algorithmes adéquats est longue et coûteuse.</p>
<p>Sont en effet nécessaires de nombreux exemples d’images (idéalement plusieurs milliers), normales et pathologiques, afin de constituer les différents sets sur lesquels elle sera entraînée. Ce qui requiert de larges bases de données, où chaque exemple a été annoté par un pathologiste – et ces collections d’images nécessitent de grandes capacités de stockage et leur digitalisation-annotation représente un budget conséquent.</p>
<p>Les performances de l’IA dépendent de la qualité des données fournies lors de son apprentissage, ce qui fait qu’elle n’est pas exempte de biais. Elle peut même amplifier des biais présents dans les sets d’entraînement. Et, comme un œil humain bien formé, elle peut commettre des erreurs.</p>
<p>Enfin l’implémentation future de ces modèles numériques au côté des médecins dans la prise en charge « réelle » des patients nécessitera la définition de standards et d’un cadre légal, comme cela a été le cas pour les analyses de génétique suite à l’avènement du séquençage à haut débit.</p>
<p>De fait, cette évolution exigera le partage de certaines données médicales, ce qui se heurte à l’éthique et au secret médical. Leur partage entre centres est nécessaire à la mise en place de larges bases de données, elles-mêmes nécessaires à l’élaboration d’algorithmes fiables. Et si les données sont toujours anonymisées, leur éventuel transfert par Cloud pose des problèmes de confidentialité (risque de piratage).</p>
<p>Par ailleurs, pour permettre une évaluation en temps réel d’un pronostic de maladie et de réponse aux traitements, les algorithmes devraient pouvoir œuvrer directement à partir du dossier médical électronique. Cela ne pourra se faire qu’en respectant des recommandations de l’Agence européenne des Médicaments qui restent à établir.</p>
<h2>Des perspectives futures</h2>
<p>Malgré ces obstacles, la transition a débuté. À terme, l’objectif est que l’IA <a href="https://www.nature.com/articles/s41568-021-00408-3">intègre des données multimodales</a>, issues des quatre strates de l’oncologie moderne : la microscopie, la radiologie, la génétique et la clinique. Cette intégration amènera à des modèles plus performants, notamment pour l’évaluation du pronostic. D’ici à cinq ans, l’IA pourrait quitter le champ de la recherche et être utilisée en soins courants.</p>
<p>L’avènement de la pathologie numérique s’annonce, quoi qu’il en soit, comme un tournant majeur au bénéfice des patients.</p><img src="https://counter.theconversation.com/content/197180/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>L’utilisation de l’IA dans le diagnostic par des experts humains est une révolution en cours qui reste mal comprise. Voici ce dont elle est déjà capable… et ce qu’elle pourrait permettre demain.Audrey Rousseau, Professeur en Anatomie Pathologique - Médecin enseignant-chercheur au CHU d'Angers, Université d'AngersLeslie Tessier, Doctorante, interne en anatomie et cytologie pathologique, RadboudUMC, Nijmegen, Université d'AngersLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1968992023-01-01T16:26:41Z2023-01-01T16:26:41ZNetflix, une machine à standardiser les histoires ?<figure><img src="https://images.theconversation.com/files/504947/original/file-20230117-26-e5a7h9.png?ixlib=rb-1.1.0&rect=18%2C8%2C784%2C450&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">« Emily in Paris », pur produit de la plateforme. </span> <span class="attribution"><a class="source" href="https://www.allocine.fr/series/ficheserie-22796/photos/detail/?cmediafile=21754009">Allociné</a></span></figcaption></figure><p>Dans l’univers académique, les « popular culture studies » s’intéressent depuis la fin des années 1950 à ce que les cultures populaires disent de nos sociétés : Netflix et le monde des séries, toujours plus nombreuses, entrent de plein fouet dans ce champ. Cette culture dite populaire est très souvent critiquée par celles et ceux <a href="https://www.cairn.info/revue-hermes-la-revue-2005-2-page-60.htm">qui voient dans cette production souvent d’origine anglo-saxonne une forme d’abrutissement des masses à des fins exclusivement commerciales</a>.</p>
<p>Pourtant, ces travaux fournissent aujourd’hui d’importants apports sociologiques et révèlent au grand jour des <a href="https://books.openedition.org/editionscnrs/19368">combats et des audaces multiples</a>, que ce soit à travers l’étude du hip-hop, du mouvement punk, d’Andy Warhol, de <a href="https://www.ens.psl.eu/agenda/beyonce-nuances-d-une-icone-culturelle/2023-01-19t183000">Beyoncé</a> ou de Lady Gaga.</p>
<p>Créé en 1997, Netflix inonde le marché de la VOD dès 2007 pour créer la plus grande plate-forme mondiale de streaming.</p>
<p>En 2022, <a href="https://www.lemonde.fr/pixels/article/2022/07/20/netflix-limite-ses-pertes-a-un-million-d-abonnes-au-2e-trimestre-et-prevoit-un-rebond_6135430_4408996.html">malgré un certain ralentissement</a>, la plate-forme compte 220 millions d’abonnés, plus de 5 000 programmes et vient de lancer un nouvel abonnement à bas prix, mais avec publicité.</p>
<p>Si Netflix est parvenu à écraser une concurrence de plus en plus dure, voire à l’étouffer dès le départ, c’est grâce à son audace, en proposant des contenus inédits. Mais cet <a href="https://www.cairn.info/revue-nectart-2021-2-page-124.htm">hypermarché des séries</a> pose question : la plate-forme promeut-elle la diversité des histoires et des scénarios ou au contraire, cette plate-forme n’est-elle qu’une énorme machine à produire de la conformité ?</p>
<h2>De l’audace dans un paysage morne</h2>
<p>Quand Netflix arrive en France en 2014, les offres sérielles sont assez peu nombreuses et le choix se fait entre quelques créations de Canal+ dont certaines feront date – <em>Engrenages</em> en 2005, <em>Le Bureau des Légendes</em> en 2015 ou encore <em>Baron noir</em> en 2016 et la mythique <em>Kaamelott</em> sur M6 (2005) ; sans compter les feuilletons quotidiens des grandes chaînes façon <em>Plus belle la vie</em> (2004–2022). La France reste dans des cadres narratifs et imaginaires souvent policés, très classiques – on imagine mal un <em>House of cards</em> avec pour toile de fond l’Elysée <a href="https://www.ege.fr/infoguerre/2019/08/series-televisees-devenues-puissant-outil-daffrontement-informationnel-a-lechelle-mondiale">comme le dit Dominique Moïsi</a>.</p>
<p>Au milieu des années 2010, Netflix heurte de plein fouet l’offre française en proposant son système de très grande distribution de séries.</p>
<h2>La création originale : premier pari</h2>
<p>Dès 2007, quand Netflix lance son service de streaming aux États-Unis, il est tout de suite question de distancer les premiers concurrents – notamment les chaînes telles HBO – qui a diffusé la fameuse série <em>Games of Thrones</em> en 2011 – ou NBC. Netflix développe alors une offre audacieuse, avec des histoires complexes, des personnages forts (Carrie dans <em>Homeland</em>, Piper dans <em>Orange Is the New Black</em>…), une production soignée. Il s’agit de conquérir le marché, et l’innovation fait partie de sa stratégie pour devancer la concurrence.</p>
<p>Dès 2010, des accords sont passés avec les studios Paramount, Lionsgate et aussi la Metro Goldwyn Mayer, pour assurer une certaine qualité et une plus grande diversité à la programmation.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/les-series-et-la-guerre-des-recits-retour-sur-le-soft-power-des-plateformes-173860">Les séries et la guerre des récits : retour sur le soft power des plateformes</a>
</strong>
</em>
</p>
<hr>
<p>En 2013, Reed Hastings – cofondateur et directeur de Netflix – décide de produire des créations originales. <em>House of Cards</em> et <em>Orange Is the New Black</em> seront ces premières offres made by Netflix, et leur succès confirmeront la pertinence du choix stratégique de la plate-forme.</p>
<p>Les créations originales deviennent dès lors un axe fondamental pour Netflix. Entre 2017 et 2018, <a href="https://www.latimes.com/business/hollywood/la-fi-ct-netflix-programming-surge-20180812-story.html">elles augmentent de 88 %</a> et représentent plus de 5000 programmes. C’est d’ailleurs cette même année que la plate-forme s’offre son premier grand studio de production à Albuquerque.</p>
<p>La création originale a donc fait la marque Netflix qui se lance avec des stars – côté réalisation comme dans les castings – et du budget ; ce virage de simple diffuseur à producteur est essentiel et Netflix arrive à attirer, entre autres, Martin Scorsese ou Bong Joo-Ho. Avec <em>Orange Is the New Black</em>, les questions féministes et de genre sont mises en avant, de même que les violences sexuelles. C’est une première dans un monde audiovisuel très soumis <a href="https://academic.oup.com/screen/article-abstract/16/3/6/1603296?redirectedFrom=fulltext">au « male gaze » décrit par Laura Mulvey</a>. Être audacieux et bousculer les spectateurs permet à Netflix d’asphyxier la concurrence.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/_79ViVWTivE?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<h2>Universel et local : second pari</h2>
<p>Si le marché se globalise via Internet, Netflix s’exporte et tient compte, dans ses productions originales et bien sûr via ses partenariats, des spécificités locales. Netflix joue sur une sorte d’universalisme des attentes, dans un monde où la pop culture est déjà largement dominée par les productions américaines, mais sait faire avec les différences, les particularismes, les identités régionales, dans une dynamique de <a href="https://www.cairn.info/revue-reseaux-2021-2-page-45.htm">glocalisation</a>. Ce pari passe par l’achat et la proposition de créations nationales : l’exemple le plus parlant étant <em>La Casa de Papel</em> « petite » série espagnole – 600 000 $ de budget par épisode pour les premières saisons environ contre 6 millions pour GOT par exemple – devenue iconique grâce à la plate-forme.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/bonnes-feuilles-le-charme-discret-des-series-165686">Bonnes feuilles : « Le charme discret des séries »</a>
</strong>
</em>
</p>
<hr>
<p>Des séries made by Netflix s’inscrivant dans le régional et savent aussi être très incisives, bousculant aussi bien le gouvernement de Modi en Inde que celui d’Erdogan en Turquie : les séries comme <em>Leila</em> ou <em>Dir Baskadir</em> sont typiques de la ligne « progressiste » de la plate-forme, avec des arcs narratifs très audacieux notamment pour <em>Leila</em> qui nous projette dans une dystopie toute politique au cœur de l’Inde de 2047.</p>
<p>Au total, ce sont dès les années 2020, 18 % des séries Netflix Originals qui sont produites ou coproduites en Europe, 12 %, en Asie, 5 % en Amérique latine et 2 % en Océanie. Jusqu’ici, une quarantaine de pays ont été impliqués <a href="https://www.cairn.info/revue-nectart-2021-2-page-124.htm">dans des productions originales Netflix</a>, tournées en une vingtaine de langues.</p>
<p>Pour se démarquer, Netflix doit innover et repousser les limites des récits habituels – en abordant des thèmes comme la politique dans <em>House of Cards</em>, en proposant un huis clos féministe avec <em>Orange Is the New Black</em>, ou en racontant la misère au féminin avec <em>Maid</em>. Cette créativité, cette originalité des propositions est vitale pour la plate-forme, si tant est que la qualité de production soit au rendez-vous… Avec l’arrivée de l’univers de jeux vidéos dans certaines productions, de nouvelles dynamiques se dessineront dans les années à venir.</p>
<p>Pour l’heure, la stratégie en « tour de Babel » porte ses fruits et que <a href="https://www.latimes.com/business/hollywood/la-fi-ct-netflix-programming-surge-20180812-story.html">« Le meilleur vecteur de promotion pour Netflix, c’est le service Netflix lui-même »</a>, selon l’aveu de Cindy Holland en 2018, tandis qu’elle était encore vice-présidente des contenus originaux pour la plate-forme. En d’autres termes, <a href="https://www.fypeditions.com/brand-success-50-reussites-exceptionnelles-marketing-de-communication-preface-de-maurice-levy-ouvrage-dirige-marc-drillech/">Netflix construit son autonomie</a> afin de maîtriser en interne tous les rouages de son offre : créations, auteurs maison, production, diffusion.</p>
<h2>Economie de l’attention</h2>
<p>Tout cela se passe dans le cadre de ce que l’on nomme l’<a href="https://www.cairn.info/l-economie-de-l-attention--9782707178701-page-7.htm?contenu=resume">« économie de l’attention »</a>.</p>
<p>Si celle-ci a toujours existé, elle tend à devenir l’alpha et l’oméga de toute production audiovisuelle ou éditoriale ; en d’autres termes, le lien réception – consommation est devenu fondamental, la nouveauté résidant dans la surabondance des informations, des propositions, des offres perpétuelles de contenu ; une surabondance qui s’est emballée via la technologie.</p>
<p>Netflix – comme d’autres – doit capter cette attention : notre temps de cerveau disponible, y compris quand il rogne sur notre sommeil, <a href="https://www.cairn.info/l-economie-de-l-attention--9782707178701-page-7.htm?contenu=resume">est la base de sa rentabilité</a>.</p>
<p>C’est peut-être ici que Netflix peut verser dans la tentation de standardiser ses contenus, tendant des pièges aux téléspectateurs/consommateurs que nous sommes.</p>
<h2>Algorithmes et cliffhangers</h2>
<p>Les algorithmes permettent à Netflix – comme à d’autres – de consolider cette économie de l’attention, de la parfaire, d’en jouer toujours plus et certainement de nous enfermer dans nos propres silos. Attirer le public, puis le conserver aussi longtemps que possible, telle est la stratégie de Netflix, qui se traduit par le redoutable bouton : « Lancer l’épisode suivant ».</p>
<p>L’algorithme de Netflix est surpuissant : il profile l’utilisateur et tire profit de chaque visite sur le site, devenant de plus en plus précis quant aux propositions voire aux prédictions qu’il fait. Cela maximise l’addiction de l’utilisateur puisque l’algorithme répond toujours et encore à ses attentes.</p>
<p>C’est là que le piège se referme : nous ne sommes plus que des consommateurs, réfractaires à sortir de notre confort de visionnage… nous standardisons notre consommation, puissamment aidés en cela par l’algorithme.</p>
<p>Un autre piège s’opère via les arcs narratifs essentiellement conçus autour du fameux « cliffhanger », le « à suivre » des <a href="https://journals.openedition.org/narratologie/7570">feuilletons d’antan</a>. Celui-ci n’a d’autre but que de laisser le récit en suspens et de créer une forte attente du côté du spectateur.</p>
<p>Des séries coréennes non doublées (VOST) peuvent ainsi faire exploser le box-office de Netflix avec une féroce critique politique et sociale <a href="https://theconversation.com/transformer-la-serie-squid-game-en-jeu-de-telerealite-est-ce-trahir-sa-portee-critique-186407">avec <em>Squid Game</em></a>. <em>Extraordinary Attorney Woo</em> met en scène une avocate souffrant d’un trouble autistique, tandis que <em>The Penthouse</em> dépeint la vie de riches habitants de Séoul plus ou moins corrompus. Ces trois séries ont fait des audiences spectaculaires : 46 millions d’heures de visionnage pour <em>Extraordinary Attorney Woo</em>, 142 millions pour <em>Squid Game</em>, soit le double de Bridgerton qui est pourtant un énorme succès.</p>
<p>Dans ces séries plutôt audacieuses au regard des sujets proposés, on retrouve toujours un pic émotionnel, qui encourage le binge-watching (pratique consistant à regarder à la suite plusieurs épisodes d’une même série télévisée) : il s’agit de tenir en haleine celui ou celle qui regarde, provoquer l’envie de continuer à regarder à l’infini.</p>
<p>Finis le silence, la réflexion, les plans longs sur des paysages ou des visages… Il en va de même au cinéma, qui peut offrir des créations extrêmement attendues, comme des fictions plus exigeantes qui généralement ne rencontrent pas une grande audience – le casse <em>Océan’s 11</em> (450 millions de $ au box-office) n’est pas le cinéma plus confidentiel et artistique de Peter Greenaway. Il en va des séries comme des films ou des livres ; l’accès « facile » reste un peu la règle.</p>
<p>Netflix s’appuie sur les <a href="https://www.huffpost.com/entry/the-netflix-addiction_b_8473094">ressorts du neuromarketing</a> qui consiste à <a href="https://www.humensciences.com/livre/Le-charme-discret-des-series/85">stimuler sans cesse l’attention</a> à offrir des sensations fortes ; une fois les visionnages à l’arrêt, la dopamine s’en va : il est donc « nécessaire » de continuer à regarder afin d’obtenir un rééquilibrage homéostatique. En d’autres termes, il est émotionnellement difficile de se passer de la suite, de l’épisode suivant. Le phénomène des séries obéit bien à la logique stimulation/addiction.</p>
<p>On le voit, Netflix sait faire preuve d’audace et encourager la créativité à travers une offre qui ouvre le champ des possibles en matière de récits et d’horizons imaginaires ; mais le succès de son modèle repose largement sur le binge-watching, entretenu à coups de cliffhangers et autres algorithmes. Bien sûr les recettes existent, bien sûr les bibles (projets de séries) répondent à des standards, mais elles engendrent moins une pression vers la conformité qu’une pression vers la facilité absolument nécessaire à cette économie de l’attention : facilité à regarder des créations qui se/nous ressemblent, facilité à être toujours stimulés via du suspense, facilité à être toujours « nourris », à éprouver du plaisir. À nous de faire le tri et d’éduquer notre capacité à chercher d’autres sources de stimulation !</p>
<hr>
<p><em>Virginie Martin est l’autrice du <a href="https://www.humensciences.com/livre/Le-charme-discret-des-series/85">« Charme discret des séries »</a>, paru aux éditions Humensciences en 2021</em>.</p><img src="https://counter.theconversation.com/content/196899/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Virginie Martin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Dès son lancement, la plate-forme de streaming s’est imposée par des propositions innovantes et audacieuses. Mais ce modèle finit-il par produire de l’uniformité dans les récits et les visions du monde ?Virginie Martin, Docteure sciences politiques, HDR sciences de gestion, Kedge Business SchoolLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1925152022-10-26T18:40:05Z2022-10-26T18:40:05ZLe marketing digital est-il en voie de disparition ?<p>À l’occasion du <a href="https://www.colloquemarketingdigital.com/">21ᵉ Colloque du Marketing Digital</a> organisé en Sorbonne les 8 et 9 septembre 2022, la question de sa disparition possible s’est posée. Avec les premiers développements du <a href="https://theconversation.com/fr/topics/metavers-111662">métavers</a>, le <a href="https://www.davechaffey.com/digital-marketing-glossary/digital-marketing/">marketing digital</a> tel que nous le connaissons est menacé. Ainsi, les dépenses publicitaires mondiales dans le digital pourraient atteindre un plafond dès 2026 avec une <a href="https://www.offremedia.com/les-depenses-publicitaires-mondiales-dans-le-numerique-dici-2026">croissance de « seulement » 6,8 %</a>. Le marché serait-il donc arrivé à saturation ?</p>
<p>Certes, ces perspectives ne sont pas inéluctables. Cependant, pour faire mentir les prévisions, les acteurs du secteur doivent désormais relever de nombreux défis d’ordre éthique, écologique, juridique et commercial.</p>
<h2>Santé publique et fraude</h2>
<p>En ce qui concerne l’éthique, les problématiques de santé publique sont au cœur des récents débats. Les <a href="https://journals.openedition.org/rfsic/2910">problèmes d’addiction ou de dépression</a> liés aux réseaux sociaux sont pointés du doigt depuis longtemps. Les <a href="https://www.futura-sciences.com/tech/definitions/internet-bulle-filtres-19642/">bulles de filtres algorithmiques</a> qui enferment l’internaute dans ses croyances sans possibilité de changer d’avis sont souvent dénoncées.</p>
<p>Par ailleurs, certaines pratiques sur le web posent question. Nous citerons la publicité digitale qui souffre de façon structurelle de fraudeurs à l’inventivité sans limites. Création de faux comptes, usage de bots, faux avis client… toutes ces techniques devraient coûter <a href="https://www.influencia.net/la-fraude-publicitaire-numerique-a-genere-697-milliards-de-dollars-de-pertes-en-2022/">697 milliards de dollars au marché en 2022</a>. L’industrie des faux influenceurs et faux followers représenterait <a href="http://blog.hivency.com/fr/les-marques-perdent-13-milliard-de-dollars-%C3%A0-cause-des-fake-influenceurs">1,3 milliards de dollars par an</a>. S’ajoute à ces chiffres, la perte de confiance, notamment des « millennials », <a href="https://www.airofmelty.fr/marques/80-jeunes-de-gen-z-ne-confiance-aux-avis-influenceurs-23988.html">envers les influenceurs</a>… Quelques initiatives comme la certification RSE (<a href="https://theconversation.com/fr/topics/responsabilite-societale-des-entreprises-rse-21111">responsabilité sociétale des entreprises</a>) des influenceurs visent à regagner cette confiance, mais le mal semble déjà fait…</p>
<h2>Sobriété et empreinte carbone</h2>
<p>À l’heure de la sobriété énergétique, il semble en outre que le marketing digital ne soit pas vraiment écoresponsable… Les impacts écologiques du web sont réels. En 2019, le numérique représentait <a href="https://theshiftproject.org/article/climat-insoutenable-usage-video/">4 % des émissions de gaz à effet de serre mondiales</a>. Toutes les données stockées ne sont pas imputables au marketing digital, mais la part de celui-ci est importante.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd'hui</a>]</p>
<p>La <a href="https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000044327272">loi REEN</a> (visant à réduire l’empreinte environnementale du numérique en France et parue au Journal officiel du 16 novembre 2021), les data centers verts, la <a href="https://www.sri-france.org/2021/10/12/sri-publie-referentiel-de-calcul-de-lempreinte-carbone-de-diffusion-campagnes-digitales/">calculatrice de l’empreinte carbone</a> des campagnes digitales, les initiatives pour réduire cette consommation sont nombreuses mais encore timides.</p>
<h2>Coopération et protection des données</h2>
<p>Sur le plan juridique, la difficulté de créer de vrais partenariats entre acteurs aboutit à une suite ininterrompue de conflits : <a href="https://www.alain-bensoussan.com/avocats/droits-voisins-google-perd-contre-les-editeurs-de-presse/2020/10/09/">procès perdu de Google contre les éditeurs réclamant</a> la rémunération de leurs articles, <a href="https://atlantico.fr/article/decryptage/tracking-de-donnees-personnelles--apple-et-facebook-se-lancent-dans-une-guerre-et-nous-sommes-au-milieu-jean-paul-pinte">guerre Facebook-Apple concernant le tracking publicitaire</a>… Le chantier de la protection des données renvoie le marché à ses propres faiblesses. La fin des cookies tiers publicitaires pour des raisons de respect de la vie privée le déstabilise. Une multitude de solutions technologiques est imaginée, passant de la <a href="https://audreytips.com/glossaire-web/google-sandbox/">Sandbox de Google</a> (une pénalité pour les sites qui abusent des techniques de référencement), aux identifiants uniques.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/la-fin-des-cookies-tiers-ne-repond-pas-au-besoin-de-controle-des-internautes-sur-leurs-donnees-180612">La fin des « cookies tiers » ne répond pas au besoin de contrôle des internautes sur leurs données</a>
</strong>
</em>
</p>
<hr>
<p>Cependant, le marché peine encore à trouver une solution unifiée et compréhensible pour les annonceurs au point que l’on parle aujourd’hui de « cookie apocalypse » renforcée par la tendance des consommateurs à refuser les cookies (<a href="https://www.seedtag.com/fr/">près du tiers des Français</a>, selon une étude de l'entreprise technologique Seedtag).</p>
<h2>Snack content, baisse de l’engagement</h2>
<p>Enfin, les défis d’ordre commercial touchent au cœur même le modèle économique du marketing digital fondé sur la publicité. En effet, celui-ci a conduit à des ratés. Preuve en est le réseau social Snapchat qui va supprimer près de 20 % de son effectif suite au ralentissement de la publicité numérique, principal revenu de l’application.</p>
<p>La baisse de l’engagement (clics, commentaires, partage) est parfois spectaculaire. Twitter génère un engagement de <a href="https://lempreintedigitale.com/podcast/taux-engagement-moyen-par-reseaux-sociaux/">0,05 % en moyenne</a>. En outre, <a href="https://www.cbnews.fr/etudes/image-44-francais-utilisent-bloqueurs-publicite-49496">44 % des consommateurs</a> utilisent un bloqueur publicitaire (AdBlock). Selon le Bernstein Research, la tendance du « Snack content » (contenu de quelques secondes diffusé sur des réseaux sociaux comme TikTok) empêche les publicités de s’installer car les <a href="https://www.bernsteinresearch.com/CMSObjectBR/Files/Recruiting/Global%20Internet%20-%20Has%20TikTok%20Ruined%20The%20Internet.pdf">formats sont beaucoup trop courts</a> pour créer attention et adhésion.</p>
<h2>Que faire ?</h2>
<p>Lors de notre intervention au 21<sup>e</sup> Colloque du Marketing Digital, nous avons tenté d’esquisser des axes d’amélioration possible pour faire face à ces nombreux défis. Nous en avons notamment relevé trois :</p>
<ul>
<li><p><strong>la stabilité</strong> : depuis son lancement, Google a connu <a href="https://blog.hubspot.fr/marketing/algorithmes-google">20 mises à jour majeures de son algorithme</a>. À chaque mise à jour, les sites Internet doivent s’adapter pour ne pas perdre leurs positions dans les premières pages du moteur. Les injonctions paradoxales (comme publiez tous les jours sur votre blog mais n’utilisez pas d’outils d’automatisation), les fermetures arbitraires de comptes sur des réseaux sociaux comme Facebook ou Twitter induisent un sentiment de dépendance à des acteurs qui peuvent décider du jour au lendemain de votre mort commerciale ou sociale. Un environnement plus stable permettrait ainsi de concevoir des stratégies de marketing digital moins exposées à ces changements.</p></li>
<li><p><strong>la pédagogie</strong> : La complexité accrue du marché, à cheval entre le marketing et l’informatique rend nécessaire des programmes de formation en libre accès pour les acteurs. Des initiatives existent, à l’image des ateliers numériques proposés par Google ou Facebook, mais elles restent trop parcellaires au regard de la sophistication des modes d’achat. Nous prendrons notamment l’exemple du programmatique (un mode d’achat d’espace en temps réel qui ressemble à ce qui est pratiqué en bourse) dont les différents types d’enchères <a href="https://www.strategies.fr/emploi-formation/management/1048973W/les-metiers-du-programmatique.html">obligent les directeurs marketing à maîtriser les pratiques</a> : en effet, le programmatique représente <a href="https://www.blogdumoderateur.com/publicite-digitale-2022-chiffres-cles-perspectives/">64 % du marché de la publicité en ligne</a>.</p></li>
<li><p>Enfin, <strong>l’interopérabilité</strong> : les acteurs du marketing digital travaillent, de plus en plus, en silo. Messenger ne communique pas avec Gmail. Partager une publication LinkedIn sur Twitter n’est pas prévue dans l’interface de LinkedIn. Cependant, cette prédominance d’écosystèmes fermés devrait se heurter rapidement à la volonté du législateur d’imposer des collaborations.</p></li>
</ul>
<p>Déjà <a href="https://siecledigital.fr/2022/05/17/pourquoi-la-chine-a-t-elle-discretement-developpe-une-plateforme-de-blockchain/">pratiquée en Chine</a>, l’interopérabilité, ou la capacité de systèmes, unités, matériels à opérer ensemble) fait l’objet d’une loi qui va en effet entrer en vigueur dans l’Union européenne, le DMA (ou <a href="https://www.europarl.europa.eu/doceo/document/TA-9-2022-0270_EN.html">Digital Market Act</a>). Ce texte va tenter de limiter les pratiques anticoncurrentielles et d’interdire certaines pratiques comme les applications préinstallées.</p>
<p>Ces trois impératifs pourraient décider de la survie du marketing digital face à un Web 3.0 de plus en plus conquérant et qui ne s’embarrassera pas des « vieux » acteurs du digital. Sans réponse à ces enjeux, Meta-Facebook, Google ou l’ensemble des réseaux sociaux tels que nous les connaissons pourraient alors être balayés par des sociétés issues de la blockchain, des cryptomonnaies et des jetons numériques non fongibles (NFT).</p><img src="https://counter.theconversation.com/content/192515/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Le ralentissement du marché oblige aujourd’hui les acteurs à relever des défis de plusieurs ordres : éthique, écologique, juridique et commercial.Maria Mercanti-Guérin, Maître de conférences en marketing digital, IAE Paris – Sorbonne Business SchoolFabienne Torrès-Baranes, Docteure en Sciences de l'Information et de la Communication, Université Paris-Panthéon-AssasJean-François Lemoine, Professeur en sciences de gestion, spécialisé en marketing digital, Université Paris 1 Panthéon-SorbonneLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1911202022-10-16T15:32:34Z2022-10-16T15:32:34ZLe terme « véhicule autonome », un non-sens philosophique<figure><img src="https://images.theconversation.com/files/486745/original/file-20220927-26-d4x8wp.jpg?ixlib=rb-1.1.0&rect=55%2C45%2C1209%2C804&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Une voiture autopilotée de la marque Waymo sur les routes de Californie aux États-Unis.
</span> <span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Waymo_self-driving_car_front_view.gk.jpg">Grendelkhan/Wikimedia commons</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Les voitures autonomes sont aujourd’hui présentées, au même titre que les voitures électriques ou à hydrogène, comme l’un des futurs développements de l’industrie automobile et plusieurs modèles seront exposés par les constructeurs lors du <a href="https://www.jds.fr/paris/foires-salons-brocantes/foires-et-salons/mondial-de-l-automobile-paris-262261_A">Mondial de l’automobile</a> qui s’ouvre ce lundi 17 octobre à Paris.</p>
<p>Pourtant, la notion de <a href="https://theconversation.com/fr/topics/voiture-autonome-23710">véhicule « autonome »</a> ne peut se comprendre au sens philosophique du terme. Et c’est sur le fond de confusions graves que certaines questions censées être <a href="https://theconversation.com/fr/topics/ethique-20383">« éthiques »</a> sont posées pour leur conception et leur production, alors que le problème est celui de choix sociétaux et politiques (il s’agit bien de la continuation de l’éthique, mais sur un plan strictement humain), qui n’ont rien de technologique comme tels. Il est capital de « dégonfler » les faux problèmes posés à ce sujet et de poser les bonnes questions. Cela est évident à partir d’une fiction théorique absurde appelée « dilemme du tramway », qui malgré la pauvreté de pensée dont elle témoigne a la vie dure. C’est la raison pour laquelle, après notre article publié en décembre 2019 dans ce même média, il nous semble nécessaire d’y revenir.</p>
<p>Le <a href="https://www.nouvelobs.com/rue89/notre-epoque/20180622.OBS8582/dilemme-du-tramway-allez-vous-tuer-un-homme-pour-en-sauver-cinq.html">« dilemme du tramway »</a> est le cas théorique d’un tramway dont le trajet présente un aiguillage. La voie qu’est censé suivre le tramway le conduirait à percuter inévitablement des ouvriers travaillant sur son chemin. Un aiguilleur se trouve à l’aiguillage, constate le drame qui aura lieu, et a l’option de changer la voie suivie par le tramway. Mais sur l’autre voie possible, se trouve une autre personne, qui si le tramway suivait ce nouveau chemin, serait tout autant victime d’un accident que les premiers ouvriers.</p>
<h2>Les algorithmes n’ont pas d’éthique</h2>
<p>La question « éthique » qui se pose alors est de savoir quelle victime il faut choisir pour être le plus conforme à l’éthique possible. Les critères peuvent concerner le nombre de victimes potentielles possible (le bon sens laisse penser que moins de victimes il y a mieux c’est), leur âge, leur sexe, leur profession, etc.</p>
<p>Le problème majeur que se posent aujourd’hui les constructeurs des dits véhicules est de savoir quelle « éthique » doit être celle des <a href="https://theconversation.com/fr/topics/algorithmes-24412">algorithmes</a> qui feront « décider » aux véhicules quelles victimes choisir en cas de « dilemme du tramway » imposé par les circonstances.</p>
<p>Or, aucune machine n’a de sentiment éthique quelconque. Une machine ne se pose structurellement pas de question de sens. Une machine ne fait que ce qui est encodé dans sa fabrication – et au pire, dans la rencontre de circonstances imprévisibles, les algorithmes feront n’importe quoi – en tout cas rien de « sensé ».</p>
<p>Si problème d’éthique il y a concernant les véhicules dits autonomes, il ne concerne donc en rien les véhicules eux-mêmes, qui contrairement à ce que voudraient croire ou faire croire beaucoup d’humains, n’ont pas d’« âme » (on peut raisonnablement penser d’ailleurs que les humains qui attribuent aux machines une « âme » quelconque sont de ce fait même en perte rapide de la leur !).</p>
<p>Les questions d’éthique concernant les véhicules autonomes sont strictement humaines, et tiennent de choix sociétaux ou politiques. Les questions sociétales et politiques sont des questions strictement humaines, qui tiennent, si l’on en croit Aristote, de la continuation de l’éthique. Et c’est bien sur des enjeux politiques que nous sommes et non exclusivement « éthiques » – encore moins d’une éthique qui serait censée être celle des machines. La difficulté vient de ce que nous, humains, voudrions désormais tout « contrôler », et en particulier, nous rêvons d’« encoder » le réel à l’avance.</p>
<p>[<em>Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Les nouvelles technologies ne sont pour rien dans cette volonté ou ce désir démesuré de croire non seulement qu’il est possible, mais qu’il est bon de tout faire pour encoder le réel à l’avance, ou de le connaître et d’en « décider » à l’avance. Loin de ne concerner que le cas des véhicules dits « autonomes » concerne nos attentes en général à l’égard de ce que peuvent les nouvelles technologies, ou de ce qu’on voudrait qu’elles puissent.</p>
<h2>Et si l’enfant est un futur Hitler ?</h2>
<p>Pour se convaincre de l’impossibilité – et de l’absurdité – d’un tel rêve, il suffit de pousser un peu plus loin que d’habitude le cas d’école du fameux dilemme du tramway pour les véhicules que l’on voudrait totalement « autonomes ». Imaginons un véhicule qui arrive sur une route, et qu’il est confronté au « choix » de devoir percuter soit un vieillard, soit une femme et disons trois enfants, dont un dans un landau.</p>
<p>Le choix paraît évident au premier abord : il faut percuter le vieillard dont on peut supposer qu’il a « fait son temps », tandis que la femme et ses trois enfants représentent l’avenir : « les femmes et les enfants d’abord ! ». Mais l’on peut imaginer que le vieillard est un grand scientifique ou un grand penseur comme Einstein, et qu’il a encore des trésors à livrer sur la connaissance de l’univers : il semble alors préférable de sacrifier la femme et ses enfants.</p>
<p>La chose se complique cependant si l’on apprend que le vieillard, quand bien même s’appellerait-il Einstein, a des retours de printemps problématiques, en particulier envers les enfants. Il est alors évident qu’il faut choisir de percuter le vieillard. Ce n’est cependant pas compter avec le fait que parmi les enfants de la femme en question peut se trouver quelqu’un du prénom d’Adolf. Une publicité parodique pour des voitures autonomes autour de cette éventualité, réalisée par des étudiants de la Filmakademie Baden-Wuerttemberg, avait d’ailleurs fait le buzz en Allemagne en 2013.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/trcLKX1Yw34?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Collision Prevent | Spec Ad | Mercedes-Benz (Filmakademie Baden-Württemberg, 2013).</span></figcaption>
</figure>
<p>Si l’on y regarde bien, il est évidement que l’on ne peut prévoir le réel. À moins d’en venir à un eugénisme total qui signerait la disparition de notre humanité : la fabrication systématisée de « Mozarts » en lieu et place d’« Hitlers » reviendrait certes à l’élimination des tyrans, mais tout autant à celle des artistes. Autrement dit, le « tout contrôle » revient à la disparition de toute créativité, inventivité, innovation véritable, improvisation artistique, etc. Nous ne sommes pas loin d’une pensée unique plus ou moins subreptice du tout contrôle pris non plus désormais comme moyen, mais comme but. Nos fantasmes à l’égard des nouvelles technologies et de leur soi-disant « intelligence » présentent des dangers sociétaux et politiques immenses.</p>
<h2>Liberté spécifiquement humaine</h2>
<p>Dans un monde dont le rêve principal est de tout maîtriser, il est évidemment douloureux de devoir constater que notre humanité est ambiguë, incertaine, ambivalente, complexe. Car cela revient à devoir admettre, comme il a été admis depuis les origines de toute philosophie et de toute religion dans le monde entier, que le beau et le laid, que le juste et l’injuste, que le bien et le mal vont ensemble, et que cela est malheureusement indépassable.</p>
<p>Si l’on veut par conséquent malgré tout « encoder » des « décisions » à la manière de ce que l’on veut pour le cas dans des véhicules dits « autonomes » – lesquels par eux-mêmes ne seraient en rien concernés par une « éthique » quelconque tandis que leurs fabricants oui –, il faut le faire avec et dans la pleine et entière conscience que cela revient à des choix sociétaux et politiques irréductiblement partiels et partiaux, fondés sur des présupposés que l’on appelle de plus en plus clairement les « biais » des algorithmes.</p>
<p>De la même façon que parler d’« intelligence » artificielle n’a aucun sens, parler de véhicules ou de quelque technologie que ce soit comme étant « autonome(s) » comme tels ne veut rien dire. Pourquoi le souligner ici enfin de nouveau ?</p>
<p>Le sens fort de la notion d’« autonomie » renvoie à la liberté spécifiquement humaine, et à des notions aussi fondamentales – et problématiques ! – que celles de l’immortalité de l’âme ou encore de « dieu ». Or, nos entêtements ont la vie dure, et l’usage de mots comme « intelligence » et « autonomie » au sujet de machines alimente des confusions graves. C’est de notre langage, et donc de notre humanité qu’il s’agit, et du risque de sa dégradation à proportion des attentes où nous sommes à l’égard des machines. On peut noter actuellement un frémissement en direction de cette pleine conscience des enjeux politiques des nouvelles technologies et de l’« IA ». C’est plus qu’une excellente nouvelle, qu’il convient de porter le plus loin et le mieux possible, en particulier évidemment sur le plan législatif.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/pourquoi-lintelligence-artificielle-se-trompe-tout-le-temps-143019">Pourquoi l’intelligence artificielle se trompe tout le temps</a>
</strong>
</em>
</p>
<hr>
<img src="https://counter.theconversation.com/content/191120/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Laurent Bibard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>La programmation des algorithmes qui piloteront demain les voitures sans chauffeur sera le fruit de choix éthiques humains politiques et forcément partiaux. Démonstration.Laurent Bibard, Professeur en management, titulaire de la chaire Edgar Morin de la complexité, ESSEC Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1881932022-08-09T20:51:21Z2022-08-09T20:51:21ZUne IA remplacera-t-elle bientôt votre psychiatre ?<p>« Bonjour Monsieur. Je vous en prie, installez-vous. Alors… comment allez-vous depuis la dernière fois ? »</p>
<p>Et si, dans quelques années, cette phrase anodine n’était plus prononcée par un psychiatre en chair et en os mais par une IA, une Intelligence artificielle ? Avec la <a href="https://theconversation.com/covid-19-quelles-consequences-sur-la-sante-mentale-137242">résurgence récente de la psychiatrie dans le débat public</a>, <a href="https://theconversation.com/comment-la-crise-sanitaire-affecte-la-sante-mentale-des-etudiants-163843">notamment en raison de la crise sanitaire</a>, l’idée de proposer des systèmes de suivi de la santé mentale intégrant des IAs a ressurgi.</p>
<p>Elle est, soyons honnête, loin d’être nouvelle puisqu’on trouve la <a href="https://dl.acm.org/doi/pdf/10.1145/365153.365168">première trace d’un chatbot (programme de dialogue) dédié à la psychiatrie, nommé ELIZA, dès 1966</a>. Ces dernières décennies, les avancées en Intelligence artificielle ont permis la montée en puissance des <a href="https://journals.sagepub.com/doi/full/10.1177/0706743719828977">chatbots</a>, « robots thérapeutes » ou autres <a href="https://theconversation.com/votre-etat-de-sante-dans-votre-voix-152111">systèmes de détection de l’état de santé à travers la voix</a>.</p>
<p>Il existe aujourd’hui <a href="https://academic.oup.com/jamia/article/25/9/1248/5052181">plus d’une vingtaine de robots-thérapeutes</a> <a href="https://journals.sagepub.com/doi/full/10.1177/0706743720966429">validés par des études scientifiques en psychiatrie</a>. Plusieurs de ces travaux avancent que les patients pourraient <a href="https://www.cambridge.org/core/journals/bjpsych-open/article/digital-mental-health-apps-and-the-therapeutic-alliance-initial-review/84D2BF70EEA1EAD7E681FF012651B55E">développer de véritables relations thérapeutiques avec ces technologies</a>, voire que certains d’entre eux se sentiraient même plus à l’aise avec un chatbot qu’avec un psychiatre humain.</p>
<p>Les ambitions sont donc grandes… D’autant que, contrairement à leurs homologues humains, ces « professionnels » numériques promettraient des décisions objectives, réplicables et dénuées de tout jugement – et d’être disponibles à toute heure.</p>
<figure class="align-center ">
<img alt="Page de dialogue d’ELIZA, avec extrait d’un échange sur le petit ami de l’interlocutrice du robot-thérapeute" src="https://images.theconversation.com/files/477664/original/file-20220804-26-8qekbh.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/477664/original/file-20220804-26-8qekbh.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=389&fit=crop&dpr=1 600w, https://images.theconversation.com/files/477664/original/file-20220804-26-8qekbh.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=389&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/477664/original/file-20220804-26-8qekbh.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=389&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/477664/original/file-20220804-26-8qekbh.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=489&fit=crop&dpr=1 754w, https://images.theconversation.com/files/477664/original/file-20220804-26-8qekbh.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=489&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/477664/original/file-20220804-26-8qekbh.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=489&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Le premier logiciel de dialogue ou chatbot est ELIZA, conçu en 1966 pour simuler un psychothérapeute.</span>
<span class="attribution"><span class="source">DR</span></span>
</figcaption>
</figure>
<p>Il faut cependant noter que, même si le nom de « robot-thérapeute » évoque l’image d’un robot physique, la plupart sont basés sur du texte, éventuellement des vidéos animées. En plus de cette absence de présence physique, importante pour la majorité des patients, beaucoup ne parviennent pas à reconnaître toutes les difficultés vécues par les personnes avec qui ils conversent. Comment, alors, fournir des réponses appropriées, comme l’orientation vers un service d’assistance dédié ?</p>
<h2>Diagnostic et modèle interne chez le psychiatre</h2>
<p>Le psychiatre, dans son entretien avec son patient, est, lui, capable de percevoir des signaux importants trahissant l’existence d’idées suicidaires ou de violences domestiques à côté desquels peuvent passer les chatbots actuels.</p>
<p>Pourquoi le psychiatre surpasse-t-il encore sa version électronique ? Lorsque ce spécialiste annonce « Vous avez un trouble déficit de l’attention », ou « Votre fille présente une anorexie mentale », le processus qui l’a conduit à poser ces diagnostics dépend de son « modèle interne » : un <a href="https://theconversation.com/lesprit-est-il-une-machine-predictive-introduction-a-la-theorie-du-cerveau-bayesien-173707">ensemble de processus mentaux, explicites ou implicites, qui lui permettent de poser son diagnostic</a>.</p>
<p>De même que l’<a href="https://theconversation.com/ce-petit-robot-qui-navigue-sans-gps-comme-une-fourmi-116700">ingénierie s’inspire de la nature pour concevoir des systèmes performants</a>, il peut être pertinent d’analyser ce qu’il se passe dans la tête d’un psychiatre (la façon dont il conçoit et utilise son modèle interne) lorsqu’il pose son diagnostic pour ensuite mieux entraîner l’IA chargée de l’imiter… Mais dans quelle mesure un « modèle interne » humain et celui d’un programme sont-ils similaires ?</p>
<p>C’est ce que nous nous sommes demandé dans notre <a href="https://www.frontiersin.org/articles/10.3389/fpsyt.2022.926286/full">article récemment paru dans la revue <em>Frontiers in Psychiatry</em></a>.</p>
<h2>Comparaison Homme-Machine</h2>
<p>En nous appuyant sur de <a href="https://onlinelibrary.wiley.com/doi/10.1111/j.1600-0447.2011.01737.x">précédentes études</a> <a href="https://journals.lww.com/academicmedicine/fulltext/2009/08000/a_universal_model_of_diagnostic_reasoning.14.aspx">sur le raisonnement diagnostic en psychiatrie</a>, nous avons établi une comparaison entre le modèle interne du psychiatre et celui des IAs. La formulation d’un diagnostic passe par trois grandes étapes :</p>
<p>● <strong>La collecte d’informations et leur organisation.</strong> Lors de son entretien avec un patient, le psychiatre assemble de nombreuses informations (à partir de son dossier médical, de ses comportements, de ce qui est dit, etc.), qu’il sélectionne dans un second temps selon leur pertinence. Ces informations peuvent ensuite être associées à des profils préexistants, aux caractéristiques similaires.</p>
<p>Les systèmes d’IA font de même : se basant sur les données avec lesquelles ils ont été entraînés, ils extraient de leur échange avec le patient des caractéristiques (en anglais <em>features</em>) qu’ils sélectionnent et organisent suivant leur importance (<em>feature selection</em>). Ils peuvent ensuite les regrouper en profils et, ainsi, poser un diagnostic.</p>
<p>● <strong>La construction du modèle.</strong> Lors de leur cursus de médecine, puis tout au long de leur carrière (pratique clinique, lecture de rapports de cas, etc.), les psychiatres formulent des diagnostics dont ils connaissent l’issue. Cette formation continue renforce, dans leur modèle, les associations entre les décisions qu’ils prennent et leurs conséquences.</p>
<p>Ici encore, les modèles d’IA sont entraînés de la même manière : que ce soit lors de leur entraînement initial ou leur apprentissage, ils renforcent en permanence, dans leur modèle interne, les relations entre les descripteurs extraits de leurs bases de données et l’issue diagnostique. Ces bases de données peuvent être très importantes, voire contenir plus de cas qu’un clinicien n’en verra au cours de sa carrière.</p>
<p>● <strong>Utilisation du modèle.</strong> Au terme des deux précédentes étapes, le modèle interne du psychiatre est prêt à être utilisé pour prendre en charge de nouveaux patients. Divers facteurs extérieurs peuvent influencer la façon dont il va le faire, comme son salaire ou sa charge de travail – qui trouvent leurs équivalents dans le coût du matériel et le temps nécessaire à l’entraînement ou l’utilisation d’une IA.</p>
<p>Comme indiqué précédemment, il est souvent tentant de penser que le psychiatre est influencé dans sa pratique professionnelle par tout un ensemble de facteurs subjectifs, fluctuants et incertains : la qualité de sa formation, son état émotionnel, le café du matin, etc. Et qu’une IA, étant une « machine », serait débarrassée de tous ces aléas humains… C’est une erreur ! Car l’IA comporte, elle aussi, une part de subjectivité importante ; elle est simplement moins immédiatement perceptible.</p>
<p><em>[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>.]</em></p>
<h2>L’IA, vraiment neutre et objective ?</h2>
<p>En effet, toute IA a été conçue par un ingénieur humain. Ainsi, si l’on veut comparer les processus de réflexion du psychiatre (et donc la conception et l’utilisation de son modèle interne) et ceux de l’IA, il faut considérer l’influence du codeur qui l’a créée. Celui-ci possède son propre modèle interne, dans ce cas non pas pour associer données cliniques et diagnostic mais type d’IA et problème à automatiser. Et là aussi, de nombreux choix techniques mais reposant sur de l’humain entrent en compte (quel système, quel algorithme de classification, etc.)</p>
<p>Le modèle interne de ce codeur est nécessairement influencé par les mêmes facteurs que celui du psychiatre : son expérience, la qualité de sa formation, son salaire, le temps de travail pour écrire son code, son café du matin, etc. Tous vont se répercuter sur les paramètres de conception de l’IA et donc, indirectement, sur les prises de décision de l’IA, c’est-à-dire sur les diagnostics qu’elle fera.</p>
<p>L’autre subjectivité qui influe sur le modèle interne des IAs est celle associée aux bases de données sur lesquelles celle-ci est entraînée. Ces bases de données sont en effet conçues, collectées et annotées par une ou plusieurs autres personnes ayant leurs propres subjectivités – subjectivité qui va jouer dans le choix des types de données collectées, du matériel impliqué, de la mesure choisie pour annoter la base de données, etc.</p>
<p>Alors que les IAs sont présentées comme objectives, <a href="https://theconversation.com/comment-lintelligence-artificielle-reproduit-et-amplifie-le-racisme-167950">elles reproduisent en fait les biais présents dans les bases de données sur lesquelles elles sont entraînées</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/477724/original/file-20220804-7860-qales6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Schéma synthétisant où les facteurs subjectifs jouent dans l’établissement d’un diagnostic : chez le psy, mais aussi chez les codeurs, ingénieurs, etc" src="https://images.theconversation.com/files/477724/original/file-20220804-7860-qales6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/477724/original/file-20220804-7860-qales6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=249&fit=crop&dpr=1 600w, https://images.theconversation.com/files/477724/original/file-20220804-7860-qales6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=249&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/477724/original/file-20220804-7860-qales6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=249&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/477724/original/file-20220804-7860-qales6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=313&fit=crop&dpr=1 754w, https://images.theconversation.com/files/477724/original/file-20220804-7860-qales6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=313&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/477724/original/file-20220804-7860-qales6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=313&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">La subjectivité intervient non seulement chez le psychiatre humain, mais aussi chez les IAs thérapeutiques à travers les choix faits par les ingénieurs, codeurs… qui les ont conçues.</span>
<span class="attribution"><span class="source">Vincent Martin</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<h2>Les limites de l’IA en psychiatrie</h2>
<p>Il ressort de ces comparaisons que l’IA n’est pas exempte de facteurs subjectifs et, de ce fait notamment, n’est pas encore prête à remplacer un « vrai » psychiatre. Ce dernier dispose, lui, d’autres qualités relationnelles et empathiques pour adapter l’utilisation de son modèle à la réalité qu’il rencontre… ce que l’IA peine encore à faire.</p>
<p>Le psychiatre est ainsi capable de souplesse de la collecte d’informations lors de son entretien clinique, ce qui lui permet d’accéder à des informations de temporalité très différentes : il peut par exemple interroger le patient sur un symptôme survenu des semaines auparavant ou faire évoluer son échange en temps réel en fonction des réponses obtenues. Les IAs restent pour l’heure limitées à un schéma préétabli et donc rigide.</p>
<p>Une autre limite forte des IAs est leur manque de corporéité, un facteur <a href="https://theconversation.com/de-la-depression-a-la-maladie-de-parkinson-le-pouvoir-curatif-de-la-danse-128740">très important en psychiatrie</a>. En effet, toute situation clinique est basée sur une rencontre entre deux personnes – et cette rencontre passe par la parole et la communication non verbale : gestes, position des corps dans l’espace, lecture des émotions sur le visage ou reconnaissance de signaux sociaux non explicites… En d’autres termes, la présence physique d’un psychiatre constitue une part importante de la relation patient-soignant, qui elle-même constitue une part importante du soin.</p>
<p>Tout progrès des IAs dans ce domaine <a href="https://theconversation.com/lintelligence-artificielle-ne-peut-se-comparer-a-lhomme-elle-na-ni-corps-ni-masse-91861">est dépendant des avancées en robotique</a>, là où le modèle interne du psychiatre est déjà incarné dans celui-ci.</p>
<p>Est-ce à dire qu’il faut oublier l’idée d’un psy virtuel ? La comparaison entre le raisonnement du psychiatre et celui de l’IA est malgré tout intéressante dans une perspective de pédagogie croisée. En effet, bien comprendre la façon dont les psychiatres raisonnent permettra de mieux prendre en compte les facteurs intervenant dans la construction et l’utilisation des IAs dans la pratique clinique. Cette comparaison éclaire également le fait que le codeur amène lui aussi son lot de subjectivité dans les algorithmes d’IA… qui ne sont ainsi pas à même de tenir les promesses qu’on leur prête.</p>
<p>Ce n’est qu’à travers ce genre d’analyses qu’une véritable pratique interdisciplinaire, permettant d’hybrider l’IA et la médecine, pourra se développer à l’avenir pour le bénéfice du plus grand nombre.</p><img src="https://counter.theconversation.com/content/188193/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Vincent Martin a reçu des financements du Ministère de l'Enseignement Supérieur et de la Recherche. </span></em></p><p class="fine-print"><em><span>Christophe Gauld ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Les robots-thérapeutes sont aujourd’hui légion… Mais avec quel bénéfice pour les patients ? Sont-ils si objectifs ? Entrez dans la psyché de ces psychiatres numériques et de leurs confrères humains.Vincent Martin, Docteur en informatique, Université de BordeauxChristophe Gauld, Pédopsychiatre et médecin du sommeil, Université Paris 1 Panthéon-SorbonneLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1860672022-07-05T18:51:43Z2022-07-05T18:51:43ZPeut-on faire des sondages politiques avec YouTube ?<p><em>Cet article est publié en collaboration avec <a href="https://www.lemonde.fr/blog/binaire/">Binaire</a>, le blog pour comprendre les enjeux du numérique.</em></p>
<hr>
<p>Les algorithmes de recommandations utilisés par les grandes plates-formes du web tel YouTube ne sont pas connus ou accessibles. Des chercheurs essaient d’en découvrir le fonctionnement. Leurs travaux permettent de mieux comprendre ce que font ces algorithmes, et aussi d’observer les relations entre les recommandations et les sondages d’intention de vote.</p>
<p>Un système de recommandation est un objet informatique ayant pour but de sélectionner de l’information pertinente pour les utilisateurs d’une plate-forme (vidéos, articles, profils…). Sur YouTube par exemple, ces recommandations sont omniprésentes : en 2018, <a href="https://qz.com/1178125/youtubes-recommendations-drive-70-of-what-we-watch/">70 % des vues de vidéos</a> provenaient de recommandations (par opposition à des vues provenant des recherches intentionnelles). On comprend alors que cet objet est à la fois critique pour l’entreprise, qui compte sur son efficacité pour maintenir l’utilisateur sur sa plate-forme le plus longtemps possible, mais aussi critique pour l’utilisateur lui-même, pour qui la recommandation façonne l’exploration, puisque c’est principalement via ce prisme qu’il accède à l’information.</p>
<p>Cette double importance conduit la recherche en informatique à s’intéresser à la conception de tels recommandeurs. Il s’agit ainsi tout d’abord de prendre la perspective de la plate-forme afin d’améliorer la mise au point de la machinerie complexe qui permet à celles-ci de produire des recommandations, en général en exploitant les historiques de consommation des utilisateurs (principe du filtrage collaboratif).</p>
<h2>L’algorithme cette boîte noire</h2>
<p>D’un autre côté et plus récemment, la recherche s’intéresse à la perspective utilisateur de la situation. Pour analyser les algorithmes de recommandation, on les observe comme des boîtes noires. Cette notion fait référence au peu de connaissance qu’à l’utilisateur sur le fonctionnement du recommandeur qui est généralement considéré par les plates-formes comme un secret industriel. L’objectif de ces recherches est de comprendre ce qu’on peut découvrir du fonctionnement de la boîte noire sans y avoir accès, simplement en interagissant avec comme tout autre utilisateur.</p>
<p>L’approche consiste ainsi, en créant des profils ciblés, à observer les recommandations obtenues afin d’extraire de l’information sur la politique de la plate-forme et son désir de pousser tel ou tel catégorie ou produit, ou bien de mesurer une éventuelle censure apportée aux résultats de recherche. On notera qu’un des buts du <a href="https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:52020PC0825"><em>Digital Services Act</em></a> récemment discuté au parlement européen est de permettre l’audit indépendant des grandes plates-formes, c’est-à-dire de systématiser les contrôles sur le comportement de ces algorithmes.</p>
<p>[<em>Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5">Abonnez-vous aujourd’hui</a>.</em>]</p>
<p>Une illustration de ce qu’il est possible d’inférer du côté utilisateur a vu le jour dans le cadre de la campagne présidentielle de 2022 en France. Il a été tentant d’observer les recommandations « politiques », et ce pour étudier la question suivante. Puisqu’un recommandeur encode le passé des actions sur la plate-forme (ici des visualisations de vidéos), est-ce que, par simple observation des recommandations, on peut apprendre quelque chose sur l’état de l’opinion française quant aux candidats en lice pour l’élection ? Le rationnel est la boucle de rétroaction suivante : si un candidat devient populaire, alors de nombreuses personnes vont accéder à des vidéos à son sujet sur YouTube ; le recommandeur de YouTube va naturellement mettre en évidence cette popularité en proposant ces vidéos à certains de ses utilisateurs, le rendant encore plus populaire, etc.</p>
<h2>Une expérience : les recommandations pour approximer les sondages</h2>
<p>Pouvons-nous observer ces tendances de manière automatisée et du point de vue de l’utilisateur ? Et en particulier, que nous apprend la comparaison de ces mesures avec les sondages effectués quotidiennement durant cette période ?</p>
<p>Dans le cadre de cette étude, nous avons pris en compte les douze candidats présentés officiellement pour la campagne. Nous avons mis en place des scripts automatisés (bots) qui simulent des utilisateurs regardant des vidéos sur YouTube. À chaque simulation, « l’utilisateur » se rend sur la catégorie française « Actualités nationales », regarde une vidéo choisie aléatoirement, et les 4 vidéos suivantes proposées en lecture automatique par le recommandeur.</p>
<p>Cette action a été effectuée environ 180 fois par jour, du 17 janvier au 10 avril (jour du premier tour des élections). Nous avons extrait les transcriptions des 5 vidéos ainsi vues, et recherché les noms des candidats dans chacune. La durée d’une phrase dans laquelle un candidat est mentionné est comptée comme temps d’exposition et mise à son crédit. Nous avons agrégé le temps d’exposition total de chaque candidat au cours d’une journée et normalisé cette valeur par le temps d’exposition total de tous les candidats. Nous avons ainsi obtenu un ratio représentant le temps d’exposition partagé (TEP) de chaque candidat. Cette valeur est directement comparée aux sondages mis à disposition par le site <a href="https://www.contexte.com/pollotron/">Pollotron</a>.</p>
<p>La figure présente à la fois l’évolution des sondages (en ordonnée) et les valeurs de TEP (en pointillés) pour les cinq candidats les plus en vue au cours des trois mois précédant le premier tour des élections (score normalisé en abscisse) ; les courbes sont lissées (fenêtre glissante de 7 jours). Les valeurs TEP sont moins stables que les sondages ; cependant les deux présentent généralement une correspondance étroite tout au long de la période. Cette affirmation doit être nuancée pour certains candidats, Zemmour étant systématiquement surévalué par le TEP et Le Pen inversement sous-évaluée. Il est intéressant de noter que les sondages et le TEP fournissent tous deux une bonne estimation des résultats réels des candidats lors du premier tour de l’élection (représentés par des points), présentant respectivement des erreurs moyennes de 1,11 % et 1,93 %. L’erreur moyenne de prédiction est de 3,24 % sur toute la période pour tous les candidats. L’ordre d’arrivée des candidats a été respecté par le TEP, pour ceux présents sur la figure tout au moins.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/472566/original/file-20220705-20-lmvdkf.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/472566/original/file-20220705-20-lmvdkf.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=367&fit=crop&dpr=1 600w, https://images.theconversation.com/files/472566/original/file-20220705-20-lmvdkf.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=367&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/472566/original/file-20220705-20-lmvdkf.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=367&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/472566/original/file-20220705-20-lmvdkf.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=461&fit=crop&dpr=1 754w, https://images.theconversation.com/files/472566/original/file-20220705-20-lmvdkf.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=461&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/472566/original/file-20220705-20-lmvdkf.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=461&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Évolution des sondages et du TEP de YouTube sur la campagne, pour les 5 candidats les mieux placés. Nous observons une proximité importante entre les courbes pleines et pointillées pour chacune des 5 couleurs. Les ronds finaux représentent les résultats officiels du premier tour : les sondages ainsi que le TEP terminent relativement proche de ceux-ci, et tous sans erreur dans l’ordre d’arrivée des candidats..</span>
<span class="attribution"><span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Les sondages sont effectués auprès de centaines ou de milliers d’utilisateurs tout au plus. Le recommandeur de YouTube interagit avec des millions de personnes chaque jour. Étudier de manière efficace l’observabilité et la corrélation de signaux de ce type est certainement une piste intéressante pour la recherche. Plus généralement, et avec l’introduction du <em>Digital Services Act</em>, il parait urgent de développer une compréhension fine de ce qui est inférable ou pas pour ces objets en boîte noire, en raison leur impact sociétal majeur et toujours grandissant.</p><img src="https://counter.theconversation.com/content/186067/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>En analysant quelles vidéos sont recommandées par YouTube, il serait possible de connaître les intentions de vote.Erwan Le Merrer, Chercheur en informatique, InriaAli Yesilkanat, Ingénieur en machine learning, InriaGilles Trédan, Chargé de recherche en informatique, Centre national de la recherche scientifique (CNRS)Licensed as Creative Commons – attribution, no derivatives.