tag:theconversation.com,2011:/africa/topics/machines-32853/articlesmachines – The Conversation2023-02-21T17:46:42Ztag:theconversation.com,2011:article/1995272023-02-21T17:46:42Z2023-02-21T17:46:42ZAvec ChatGPT, ne faut-il pas craindre l’homme plus que les algorithmes ?<p>Depuis sa mise en ligne fin novembre, le <a href="https://www.lemonde.fr/economie/article/2022/12/06/chatgpt-le-logiciel-capable-d-ecrire-des-petits-textes-confondants_6153252_3234.html">logiciel ChatGPT</a>, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.</p>
<p>Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/chatgpt-pourquoi-tout-le-monde-en-parle-197544">ChatGPT : pourquoi tout le monde en parle ?</a>
</strong>
</em>
</p>
<hr>
<p>La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?</p>
<p>La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/quel-avenir-pour-chatgpt-197553">Quel avenir pour ChatGPT ?</a>
</strong>
</em>
</p>
<hr>
<p>La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’<a href="https://theconversation.com/lintelligence-artificielle-encore-une-revolution-anthropologique-198845">anthropologie</a>, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.</p>
<h2>Ce qui échappe à l’algorithmatisation</h2>
<p>Les performances de <a href="https://www.radiofrance.fr/franceculture/podcasts/le-meilleur-des-mondes/chat-gpt-les-nouveaux-enjeux-de-l-i-a-8203254">ChatGPT</a> sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le <a href="https://www.lemonde.fr/livres/article/2020/10/29/raja-chatila-penser-n-est-pas-calculer_6057793_3260.html">spécialiste de robotique Raja Chatila</a> dans <em>Le Monde</em> en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.</p>
<p>ChatGPT pourrait très bien réécrire le <em>Cogito</em> de <a href="http://classiques.uqac.ca/classiques/Descartes/descartes.html">Descartes</a>, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans <a href="http://classiques.uqac.ca/classiques/spinoza/spinoza.html"><em>l’Ethique</em></a>.</p>
<p>Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. <a href="https://www.radiofrance.fr/franceculture/podcasts/les-chemins-de-la-philosophie/les-mathematiques-peuvent-elles-nous-aider-a-connaitre-le-reel-2144778">Blaise Pascal</a>, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (<a href="https://fr.wikipedia.org/wiki/Pascaline">« la pascaline »</a>) avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».</p>
<p>Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).</p>
<p>La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/beau-parleur-comme-une-ia-196084">Beau parleur comme une IA</a>
</strong>
</em>
</p>
<hr>
<p>Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.</p>
<h2>La question des choix humains</h2>
<p>Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.</p>
<p>Dans <a href="https://www.dunod.com/sciences-humaines-et-sociales/psychologie-intelligence-0"><em>La psychologie de l’intelligence</em></a>, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.</p>
<p>C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/que-doit-on-craindre-davantage-lintelligence-artificielle-ou-la-betise-humaine-89471">Que doit-on craindre davantage : l’intelligence artificielle ou la bêtise humaine ?</a>
</strong>
</em>
</p>
<hr>
<p>Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.</p>
<p>L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.</p>
<p>En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.</p>
<p>C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.</p><img src="https://counter.theconversation.com/content/199527/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Charles Hadji ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>N’existe-t-il pas des capacités spécifiquement humaines qui nous rendent irremplaçables, nous mettant à l’abri de la concurrence de l’intelligence artificielle ?Charles Hadji, Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1823022022-05-05T12:26:26Z2022-05-05T12:26:26ZImplants cérébraux : la délicate question de la responsabilité juridique des interfaces homme-machine<figure><img src="https://images.theconversation.com/files/460792/original/file-20220502-11-asya95.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C1450%2C800&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Dans le film _Transcendance_, de Wally Pfister, sorti en 2014, le héros mourant transfère son esprit dans un ordinateur quantique.</span> <span class="attribution"><a class="source" href="https://www.critikat.com/wp-content/uploads/fly-images/51650/arton7583-1450x800-c.jpg">Wally Pfister, 2014</a></span></figcaption></figure><p>Depuis quelques années, Elon Musk ne cesse de faire des annonces relatives à des avancées technologiques. <a href="https://www.capital.fr/auto/tesla-elon-musk-annonce-le-lancement-de-sa-voiture-completement-autonome-pour-juillet-1395670">Voitures autonomes</a>, <a href="https://sciencepost.fr/etapes-voyage-mars-spacex/">voyages interplanétaires</a>, <a href="https://theconversation.com/elon-musk-et-neuralink-vers-une-interface-cerveau-machine-121095">interface homme-machine</a>, achat du réseau social Twitter… rien ne semble arrêter l’homme d’affaires. Aucun obstacle technique, géographique, physiologique ne lui semble infranchissable. Pourtant, ses projets pourraient, à court terme, poser de véritables difficultés du point de vue juridique.</p>
<h2>La recherche d’une fusion entre le cerveau et l’intelligence artificielle</h2>
<p>Avec Neuralink, l’un des objectifs visés par Elon Musk est de créer une <a href="https://www.latimes.com/business/technology/la-fi-tn-elon-musk-neuralink-20170421-htmlstory.html">interface entre l’humain et la machine</a>. À plus ou moins court terme, le projet porte sur le développement d’implants cérébraux pour pallier des troubles neurologiques chez les personnes souffrant de <a href="https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-neuralink-premiers-essais-etre-humain-commenceront-2022-apres-elon-musk-95495/">paraplégie ou de tétraplégie</a>. À long terme, il s’agirait de placer le cerveau humain en <a href="https://www.lesechos.fr/tech-medias/hightech/le-plan-delon-musk-pour-connecter-notre-cerveau-a-un-ordinateur-1039472">symbiose avec l’intelligence artificielle</a>.</p>
<p>Ces implants ont fait l’objet de récentes annonces : ils pourraient être expérimentés chez l’humain courant 2022, si la <em>Food and Drug Administration</em> l’autorise. Rappelons que ces promesses ne sont pas inédites : elles avaient <a href="https://www.lesechos.fr/tech-medias/hightech/le-plan-delon-musk-pour-connecter-notre-cerveau-a-un-ordinateur-1039472">déjà été faites</a> à plusieurs reprises ces dernières années. Elles s’inscrivent par ailleurs dans un <a href="https://presse.inserm.fr/des-implants-miniatures-dans-le-cerveau-pour-retablir-la-motricite-vraiment/40736/">contexte de recherche particulièrement riche</a>, qui pointe <a href="https://theconversation.com/nos-cerveaux-resteront-ils-humains-111471">certaines limites de l’utilisation de tels implants</a>.</p>
<h2>Des interrogations autour de la notion de « personnalité juridique »</h2>
<p>La quête d’une interface entre humains et machines conduit à s’interroger sur ce qui pourrait advenir d’entités qui seraient véritablement en symbiose. La dichotomie entre les personnes et les choses persiste depuis des siècles. Elle structure le droit civil : tout ce qui n’est pas une personne est considéré comme étant une chose. Les premières sont des sujets de droit, c’est-à-dire qu’elles sont titulaires de droits et d’obligations. Les secondes sont soumises à la volonté des premières.</p>
<p>Il faudrait donc déterminer dans quelle catégorie placer ces entités reposant sur la symbiose entre l’homme et la machine. Aujourd’hui déjà, il est acquis que la « personnalité juridique » n’est pas seulement l’apanage des personnes humaines : les sociétés, par exemple, disposent de la <a href="https://fr.wikipedia.org/wiki/Personne_morale">personnalité morale</a>. Elles ont ainsi des droits liés à leur personnalité juridique technique.</p>
<p>Certains proposent également de mobiliser cette construction juridique qu’est la « personnalité juridique » pour protéger les animaux.</p>
<p>Cette fiction pourrait-elle à l’avenir permettre d’accorder des droits à ces interfaces homme-machine ? Si oui, il faudrait encore déterminer de quels droits elles pourraient bénéficier. Certains droits visent en effet spécifiquement l’humain qui est en chaque individu. Les accorder à des entités mi-homme mi-machine serait un non-sens. À titre d’exemple, le respect de la dignité humaine impose de préserver l’intégrité génétique des personnes humaines. Une telle protection ne serait pas envisageable dans les mêmes termes pour ces nouvelles entités.</p>
<p>De manière plus générale, certains s’inquiètent de la <a href="https://www.editions-harmattan.fr/livre-la_confusion_juridique_des_personnes_et_des_choses_xavier_labbee-9782343236124-70925.html">possible confusion juridique entre personnes et choses</a>.</p>
<h2>Le corps, accessoire de la machine</h2>
<p>À l’instar de l’hybride entre l’homme et l’animal, l’hybride entre l’homme et la machine serait une sorte de chimère, c’est-à-dire, un être composé de parties disparates formant un ensemble sans unité.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/implants-cerebraux-la-nature-humaine-remise-en-question-136584">Implants cérébraux : la nature humaine remise en question</a>
</strong>
</em>
</p>
<hr>
<p>Une telle hybridation interroge les limites de la personnalité juridique. Si la partie technologique de l’entité intervient dans des proportions très importantes, il paraît difficilement concevable de lui attribuer la personnalité juridique dans les mêmes termes qu’à la personne humaine. Surtout, si le corps humain ne devient que le support de la machine, dirigée par l’intelligence artificielle, cette entité disposerait-elle toujours de la personnalité juridique ? Suivant la règle selon laquelle l’accessoire suit le principal, le corps, accessoire de la machine, devrait répondre au même régime : cette entité, même en disposant d’un corps humain, serait une chose, non une personne.</p>
<h2>La particularité des implants cérébraux</h2>
<p>Les implants cérébraux développés dans le cadre de Neuralink ne peuvent pas être traités comme n’importe quelle prothèse qui serait implantée dans le corps humain. Certes, le projet traite aujourd’hui de l’utilisation d’implants à des fins thérapeutiques.</p>
<p>Mais de tels implants pourraient, à l’avenir, devenir le siège de capacités cognitives nouvelles. La méfiance doit être de mise à l’heure où les voitures autonomes, déjà développées par le multimilliardaire, sont en cause dans des <a href="https://www.actuia.com/actualite/le-systeme-semi-autonome-autopilot-de-tesla-au-centre-dun-enquete-federale-suite-a-de-multiples-accidents/">accidents de la circulation induits par des dysfonctionnements de l’intelligence artificielle</a>.</p>
<p>Surtout, si les décisions ne sont pas prises de manière autonome par la personne humaine, mais plutôt supplantées par l’intervention de l’intelligence artificielle, cette dernière ne devrait-elle pas être titulaire de droits et, surtout, d’obligations ? Pourtant, dès lors qu’il ne s’agit que d’une chose, elle n’est qu’objet de droit.</p>
<h2>La crainte d’un glissement dans l’usage des implants cérébraux</h2>
<p>En somme, l’expérimentation d’implants cérébraux à des fins thérapeutiques est une chose, leur utilisation à des fins de symbiose entre l’homme et la machine en est une autre. Ces deux situations doivent être distinguées car elles ne répondent pas aux mêmes règles de droit.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/humanisme-posthumanisme-transhumanisme-de-quoi-parle-t-on-exactement-152510">Humanisme, posthumanisme, transhumanisme : de quoi parle-t-on exactement ?</a>
</strong>
</em>
</p>
<hr>
<p>Dans le premier cas, les implants pourraient être regardés comme des dispositifs médicaux, expérimentables sur l’homme, à des fins d’amélioration de sa santé. Dans le second cas, il s’agirait d’opter pour une augmentation des capacités humaines et donc, de s’inscrire dans le courant transhumaniste auquel Elon Musk semble appartenir. La difficulté qui se pose donc aujourd’hui face aux projets du multimilliardaire est donc de freiner de telles velléités transhumanistes. Menées à bien, ces ambitions poseraient de sérieuses difficultés en termes d’attribution de la personnalité juridique et, par conséquent, de responsabilité s’agissant des actes qui pourraient être réalisés par ces entités mi-homme mi-machine.</p>
<h2>La multiplication des risques par l’usage des technologies</h2>
<p>Plus encore, qu’adviendrait-il en cas de biohacking de l’implant ? Déjà, la série <a href="https://www.allocine.fr/series/ficheserie_gen_cserie=24797.html"><em>Biohackers</em></a> a permis de souligner que les progrès scientifiques pouvaient conduire à des manipulations du génome <a href="https://criminogonie.hypotheses.org/216">à des fins criminelles</a>.</p>
<p>Dans le cas de l’implantation cérébrale de puces disposant d’une intelligence artificielle, le hacking pourrait être particulièrement dangereux. Certains estiment d’ailleurs qu’une <a href="https://datascientest.com/hackers-intelligence-artificielle-arme">intelligence artificielle hackée serait une arme</a>, permettant l’essor du cybercrime.</p><img src="https://counter.theconversation.com/content/182302/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Elise Roumeau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Les implants cérébraux à visée transhumaniste posent plus de questions qu’ils n’en résolvent. Éclairage juridique.Elise Roumeau, Docteur et ATER en droit privé à l'Université Clermont Auvergne - Centre Michel de l'Hospital, Université Clermont Auvergne (UCA)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1693762021-10-13T19:10:36Z2021-10-13T19:10:36ZTraduction automatique : la dangereuse « sagesse des foules »<figure><img src="https://images.theconversation.com/files/426189/original/file-20211013-23-4oajiq.jpg?ixlib=rb-1.1.0&rect=0%2C26%2C2994%2C1961&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Non la traduction automatique n'est pas la panacée. </span> <span class="attribution"><span class="source">Shutterstock</span></span></figcaption></figure><p>Apôtre de l’intelligence collective, le journaliste américain James Surowiecki publie en 2004 un essai intitulé <a href="https://fr.wikipedia.org/wiki/La_Sagesse_des_foules">« La sagesse des foules »</a>, dans lequel il explique comment, en matière de prédiction, la capacité collective d’un groupe sera dans la plupart des cas supérieure aux aptitudes de chacun des individus qui le composent, y compris des plus fins connaisseurs.</p>
<p>Pour illustrer son propos, Surowiecki y relate l’histoire du statisticien britannique Francis Galton qui assiste à une foire agricole au début du XX<sup>e</sup> siècle. Un concours s’y tient, au cours duquel les participants sont invités à estimer le poids d’un bœuf. Rentrant chez lui, Galton se met à analyser les estimations des 787 paris. Il note, à sa grande surprise, que la médiane des entrées est non seulement plus précise que les estimations individuelles de tous les bouchers et fermiers – censés avoir un œil affûté pour ce genre d’estimations – mais en outre que cette médiane correspond presque exactement au poids de l’animal, à une livre près.</p>
<p>Galton <a href="https://galton.org/essays/1890-1899/galton-1899-rba-median-estimate.pdf">publiera ses conclusions dans <em>Nature</em></a>, où il décrit le principe de l’intelligence collective : le plus grand nombre est bien souvent à l’origine des meilleures décisions.</p>
<h2>La force du collectif</h2>
<p>Rapprochons l’histoire de Francis Galton des cours de traduction dispensés à l’université et des ateliers de perfectionnement pour professionnels en exercice : au cours d’échanges toujours féconds, chaque participant y trouve l’occasion d’exprimer ses bonnes idées et autres lumineuses trouvailles. Celles-ci sont débattues, décortiquées, critiquées par l’examen collectif. Les solutions retenues par l’ensemble du groupe sont alors compilées en une version finale, somme des meilleures inspirations de chacune des individualités. Fruit du travail d’équipe, cette traduction sera invariablement d’une qualité supérieure aux productions individuelles de chacun des participants, aussi talentueux soient-ils.</p>
<p>Par analogie, nous en venons à nous interroger sur la capacité de la traduction automatique – dont le modèle statistique reproduit peu ou prou le schéma de l’intelligence collective – à remplacer les traducteurs et traductrices de chair et d’os. Ainsi, à l’ère de l’intelligence artificielle et du big data, quid de mettre la force du collectif à profit pour traduire, comme si Internet était une immense salle de classe, un gigantesque projet collaboratif, une sorte de dream team composée de dizaines de millions de participants, où chaque texte déjà traduit constituerait une source d’inspiration ? Nous pouvons sans nul doute l’envisager.</p>
<h2>Pour le meilleur et pour le pire</h2>
<p>Si l’idée est séduisante sur papier, je dois d’emblée décevoir les inconditionnels de l’automatisation. Si l’on peut facilement comparer les cours de traduction à l’université à un rassemblement d’experts dont la mission serait d’apporter au plus précis l’ultrasolution à un problème donné, l’analogie avec la traduction automatique semble excessive, voire erronée.</p>
<p>Tout d’abord, parce que Word Wide Web compte certes de grands spécialistes, mais qui se trouvent représenter une infime minorité dans une foule d’internautes généralistes, voire néophytes, qui expriment eux aussi leur avis sur la question. L’intelligence artificielle essaiera, tant bien que mal, d’accorder la priorité aux sources identifiées comme fiables (grandes institutions, entreprises renommées), mais elle sollicitera à la vérité l’avis de toute… la planète, c’est-à-dire de tous ceux et celles qui auront déjà produit et publié du texte sur Internet. Et à cet égard, vous aurez certainement remarqué que ce que l’on trouve sur le net ne brille pas toujours par sa justesse.</p>
<p>Par ailleurs, pour filer la métaphore de nos constats agricoles, non seulement le monde entier vous donnera son opinion – pour le meilleur et aussi pour le pire donc – mais en outre, comme un ordinateur n’est pas en mesure de mettre du sens sur les solutions qu’il trouve, c’est un peu comme si vos pourvoyeurs d’informations se prononçaient sans même avoir identifié la bête soumise à leur examen. Ils auront certes une idée statistique du type d’animal, selon les caractéristiques détectées par la machine, mais rien de très précis, si bien qu’en plus d’estimations se rapportant aux races bovines, vous en aurez aussi potentiellement de l’ensemble de la faune terrestre, de la puce à la baleine bleue, avec toutes les incongruités qui peuvent en résulter.</p>
<p>À noter, enfin et surtout, que les traductions collectives humaines font toujours l’objet d’un arbitrage, soit par le professeur, soit par l’animateur de l’atelier, qui se charge de trancher, d’orienter. En d’autres termes, une entité supérieure se charge de trier les solutions provenant de la masse critique de traducteurs, comme un garde-fou veillant à la bonne marche de l’opération. En cas de recours à la traduction automatique sans intervention humaine a posteriori, cet arbitrage est inexistant.</p>
<h2>Fluidité apparente et erreurs grossières</h2>
<p>Certes, il existe des sécurités. Les mots, tout d’abord, qui constituent tout de même une bonne indication du sens probable d’une phrase. Le contexte, ensuite, qui est désormais pris en compte par la technologie dite neuronale et réduit le champ des possibles à de grandes familles. Dans notre cas, la recherche sera circonscrite à tous les grands animaux de la ferme pour les moteurs les moins performants et à toutes les races bovines pour les technologies les plus abouties. Mais entre un veau angus maigrichon et un taureau charolais bien dodu, la marge d’erreur restera élevée !</p>
<p>Voilà ce qui explique qu’entre des phrases en apparence très fluides apparaîtront dans le texte : des erreurs grossières, des termes qui n’ont rien à voir avec le sujet du texte, des omissions d’éléments de sens, des <a href="https://futurium.ec.europa.eu/en/european-ai-alliance/open-discussion/problem-gender-bias-machine-translation?language=hu">biais de genre</a>, des phrases au sens complètement inversé – incapable de « comprendre » le sens de la phrase, le moteur de traduction opte pour la solution qu’il estime statistiquement la plus probable et parfois donc pour une tournure qui dit le contraire de l’original.</p>
<p>Ainsi, la phrase « UK car industry in brace position ahead of Brexit deadline », qui nous explique que l’industrie automobile britannique « craint le pire » (littéralement, elle se met en « positon de sécurité » (brace position), se prépare à un scénario catastrophe, comme sont invités à le faire les passagers d’un avion avant un crash), a été traduite dans <a href="https://acl-bg.org/proceedings/2019/EUROPHRAS%202019/pdf/EUROPHRAS020.pdf">cette étude</a> par « L’industrie automobile britannique en position de force avant l’échéance du Brexit ».</p>
<p>Méfiance donc, car quelle que soit l’apparente fluidité de la traduction proposée, ce type d’erreur (terminologie défaillante, omission, contresens) <a href="https://www.ata-divisions.org/FLD/index.php/tag/guillaume-deneufbourg/">reste omniprésent dans les productions automatiques</a>.</p>
<h2>Standardisation, nivellement et appauvrissement de la langue</h2>
<p>Un autre problème, moins connu du grand public, est celui de la standardisation. En effet, si les nouvelles traductions s’inspirent continuellement de ce qui existe déjà, cette mécanique peut, à terme, nuire à l’inventivité, à la créativité, à l’originalité – <a href="http://journals.openedition.org/traduire/1848">comme le démontrent plusieurs études scientifiques</a>. On le constate d’ailleurs très clairement dans un texte comportant des expressions idiomatiques colorées que la machine remplacera par des équivalents « explicatifs » – certes correct, mais plus terre-à-terre. La machine ne cherchera pas à « faire du beau », à chatouiller la poésie du verbe, mais se contentera de rendre le sens. « C’est assurément préférable à une traduction mot à mot sans queue ni tête ! » s’exclameront les nostalgiques des laborieux débuts de Google Translate. Nous ne pourrons pas leur donner tort, mais tout de même.</p>
<p>Dans le cas des textes d’auteur, qui, par définition, s’écartent de la norme pour acquérir un « relief littéraire » bien à eux, ce nivellement est très problématique, qu’il soit culturel, stylistique ou idéologique. À ce titre, <a href="https://doi.org/10.7202/016726ar">l’excellent texte de la traductrice Françoise Wuilmart</a>, écrit une bonne décennie avant l’avènement de la technologie neuronale, en acquiert aujourd’hui des accents presque prophétiques : « Le phénomène de nivellement touche au cœur même du problème de toute traduction littéraire. Nivellement, ou encore ‘normalisation’, c’est-à-dire action de ‘raboter’ un texte ou de l’aplatir, c’est-à-dire en supprimer toutes les sortes de reliefs, y tronquer les pointes, y boucher les creux, y aplanir toutes les aspérités qui en font justement un texte littéraire. » Exactement ce que s’emploie à faire, malgré elle, la traduction automatique.</p>
<p>Cette standardisation pose un autre problème, plus conséquent, encore amplement méconnu. Tout indique qu’une utilisation exponentielle de la traduction automatique initie un cercle vicieux qui génère, à terme, un appauvrissement de la langue : la machine produit, comme on l’a vu, des textes toujours plus standardisés, qui servent ensuite eux-mêmes de matière première pour alimenter d’autres moteurs, qui raboteront à leur tour les textes, et ainsi de suite. La perte de richesse lexicale des textes <a href="https://aclanthology.org/W19-6622.pdf">ayant traversé le filtre de la traduction automatique a été démontrée</a>, on peut donc extrapoler cette tendance à l’ensemble des textes traduits de cette façon.</p>
<p>Or, s’exposer à une standardisation toujours plus grande du langage, c’est réduire notre capacité d’expression, et donc notre pensée. Orwell avait déjà saisi tout l’enjeu de cette question. Pour contrôler la pensée, diminuer le langage peut s’avérer très efficace. Ainsi, dans 1984, Big Brother interdit l’usage de mots qui pourraient véhiculer des pensées interdites. « Nous détruisons chaque jour des mots, des vingtaines de mots, des centaines de mots, nous taillons le langage jusqu’à l’os » s’y réjouit un spécialiste de novlangue. <a href="http://www.folio-lesite.fr/Catalogue/Folio/Folio/1984">« À la fin, nous rendrons littéralement impossible la pensée, car il n’y aura plus de mots pour l’exprimer. »</a>. Sans vouloir paraître défaitiste, je ne suis pas sûr que la peur de voir se réaliser ce scénario, aussi glaçant soit-il, puisse enrayer le processus. Il est en tout cas tout sauf irréaliste. Même si son développement comporte quelques raccourcis et faiblesses, c <a href="https://drive.google.com/file/d/1Mepk_e3NGfnqw0d_ev9bsgqnz9OPhyfW/view">e n’est pas Christophe Clavé qui me contredira</a>.</p>
<h2>Problèmes de confidentialité</h2>
<p>Comme nous le rappelle également le traductologue Rudy Loock dans <a href="https://journals.openedition.org/traduire/1848">son article</a> sur la plus-value de la traduction humaine face à la machine, l’utilisation d’outils de traduction automatique en ligne n’est pas non plus sans risques en termes de confidentialité. On se souviendra notamment du cas du géant pétrolier norvégien Statoil/Equinor, dont des données ultraconfidentielles ont « fuité » sur l’Internet à la suite du recours <a href="https://slator.com/translate-com-exposes-highly-sensitive-information-massive-privacy-breach/">au service de traduction en ligne translate.com</a>. Le site spécialisé Slator a ainsi retrouvé, après quelques rapides recherches Google, une quantité étonnante d’informations en libre accès. Dans tous les cas, des noms complets, des courriels, des numéros de téléphone et d’autres données très sensibles furent révélés.</p>
<p>Sans vouloir nous montrer alarmistes, rappelons le flou entourant les conditions d’utilisation des <a href="https://www.leparisien.fr/high-tech/pourquoi-google-vous-demande-encore-de-valider-ses-conditions-d-utilisation-26-02-2020-8267646.php">données que vous cédez à Google</a> ou les secrets de fabrication du moteur DeepL, <a href="https://slator.com/inside-deepl-the-worlds-fastest-growing-most-secretive-machine-translation-company/">impénétrable boîte noire</a> dont on ne sait quasiment rien.</p>
<h2>Le risque d’une mauvaise publicité</h2>
<p>En dépit de tous ces dangers, on constate aussi et surtout une grande incompréhension dans le chef de certains acheteurs de services de traduction, qui n’ont pas toujours conscience des risques auxquels ils s’exposent et dont une part grandissante voit dans la traduction automatique la solution miracle à tous leurs problèmes. À titre d’exemple, la Direction Générale de la Traduction (DGT) de la Commission européenne met son moteur de traduction automatique etranslation gratuitement à disposition afin de <a href="https://ec.europa.eu/cefdigital/wiki/display/CEFDIGITAL/eTranslation">« briser la barrière de la langue »</a>.</p>
<p>Empressons-nous d’ajouter : ne voyez pas dans la critique qui suit la grogne épidermique d’un professionnel aux abois anxieux pour son avenir. L’évolution technologique est inéluctable et il est indiqué de cultiver l’ouverture (adossée à une posture critique réfléchie). L’inquiétude procède du fait que les informaticiens de la Commission ont mis cet outil en ligne à la disposition du plus grand nombre en oubliant un élément fondamental : éduquer le public.</p>
<p>Il ressort ainsi d’une série d’études que la plupart des consommateurs ne s’appuient que sur des impressions très subjectives, rarement sur des faits. <a href="https://www.researchgate.net/publication/343737031_Machine_translation_in_the_news_A_framing_analysis_of_the_written_press">Une autre étude</a> a analysé le traitement médiatique de la traduction automatique, mettant en lumière que la majorité des articles de presse présentaient la technologie sous un jour (<a href="https://www.mirror.co.uk/news/uk-news/couple-who-dont-speak-same-13811438">parfois très</a>) positif, le spectre de l’homme remplacé par la machine ayant de tout temps été un <a href="https://www.ledauphine.com/sciences/2018/09/17/travail-les-robots-vont-ils-tous-nous-remplacer">sujet porteur</a>. Couplée à la facilité d’utilisation et à la gratuité, cette subjectivité ambiante fait barrage à une approche raisonnée de ces outils par le grand public.</p>
<p>Autre preuve, <a href="http://www.hainaut-developpement.be/enquete-de-lue-sur-la-traduction-automatique-des-sites-web/">cette campagne</a> lancée par un organe public belge actif dans le développement économique, nous expliquant qu’« aujourd’hui, la traduction automatique constitue une solution rapide, bon marché et facile d’utilisation. » Et l’organisme d’annoncer dans un mailing envoyé à des milliers de petites et moyennes entreprises que « la Commission européenne compte [les] soutenir en leur proposant des solutions automatisées pour la traduction de sites Web. Ces solutions seront fondées sur eTranslation, le service de traduction automatique de la Commission, actuellement utilisé par les institutions européennes et des milliers d’administrations publiques et de PME dans l’ensemble de l’UE ».</p>
<p>La tournure commerciale du texte de présentation n’aura pas manqué de piquer les yeux des professionnels de la traduction. Pas un mot sur les dangers de la technologie, pas l’ombre d’une explication sur le pourquoi du comment. Juste un message alléchant.</p>
<p>Or, lorsqu’elle dépasse le cadre de l’usage privé en tant qu’outil d’intercompréhension, la traduction automatique peut rapidement se transformer en une redoutable arme de destruction massive, capable de ruiner une réputation en moins de temps qu’il n’en faut pour partager sur les réseaux sociaux une perle produite par Google Translate. Mon confrère anglophone Ben Karl en reprend quelques exemples sur <a href="https://fr.bktranslation.com/post/traducteur-professionnel">son site Web</a>, dont le <a href="https://www.insider.com/mexico-official-tourism-website-ridiculed-for-auto-translate-errors-2020-8">cas de l’Office du tourisme du Mexique</a>, sur le site duquel le nom de la ville d’Aculco avait été (automatiquement) traduit en anglais par « J’accuse ». Autre perle magnifique : le nom du président de la République populaire de Chine, <a href="https://www.thedailybeast.com/facebook-apologizes-for-translation-of-chinese-leader-xi-jinpings-name-to-mr-shthole">traduit du birman à l’anglais</a> par le très élégant « Monsieur Trou du cul ».</p>
<h2>Un recours inévitable à l’expertise humaine</h2>
<p>Plus personne dans le secteur ne nie aujourd’hui l’évolution technologique dont la traduction fait l’objet, comme tant d’autres métiers. Il est évident que la traduction-machine est de plus en plus utilisée comme outil d’aide à la traduction. Il est clair également qu’un moteur statistique peut produire des résultats sans cesse plus exploitables.</p>
<p>Mais encore trop d’utilisateurs oublient que ce contenu traduit automatiquement reste (potentiellement) criblé d’erreurs, de tous types et de toutes natures, que des énormités peuvent se cacher partout, entre des phrases en apparence fluides et cohérentes. Aussi, seule l’expertise d’une ou d’un professionnel de la traduction permettra d’évaluer la qualité de cette matière première. Seul un professionnel de chair et d’os pourra faire le choix – ou non – d’y recourir, à l’instar d’une photographe qui sélectionnera l’appareil photo le plus approprié aux conditions ou qu’un expert-comptable qui décidera du moyen de saisie des écritures le plus adapté à son mode de fonctionnement.</p>
<p>Comme tous les métiers, la traduction n’échappe pas à l’automatisation. Je ne cesse de clamer qu’il faut embrasser cette évolution, ne serait-ce que parce qu’elle est inéluctable. On peut même se réjouir de cette mutation, qui peut parfois servir la qualité, en ce sens où elle permet aux praticiens de faire véritablement valoir leur savoir-faire, d’éviter les tâches répétitives et de se concentrer sur celles à plus forte valeur ajoutée.</p>
<p>Gardons quoi qu’il en soit à l’esprit qu’en matière d’automatisation, la prudence reste plus que jamais de mise. Il convient à ce titre d’éviter tout recours « aveugle » à la traduction-machine. Les vrais professionnels sauront choisir avec vous la meilleure méthode de travail, en fonction de vos priorités et du célèbre triptyque qualité – délai – budget. Conseilleurs linguistiques et culturels avertis, ils seront les seuls garants d’une communication multilingue irréprochable. Comme aurait sans doute pu l’avancer en 1906 le garçon boucher victorieux du concours de la foire agricole de Plymouth, l’expertise humaine restera votre seul et unique moyen de faire, à tous les coups, un effet… bœuf.</p>
<hr>
<p><em>L’auteur remercie <a href="https://pro.univ-lille.fr/rudy-loock/">Rudy Loock</a> pour ses suggestions.</em></p><img src="https://counter.theconversation.com/content/169376/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Guillaume Deneufbourg est membre de la Société française des traducteurs, de la Chambre belge des traducteurs et interprètes et de la Société française de traductologie.</span></em></p>La traduction dite « automatique » peut-elle vraiment remplacer les traductrices et traducteurs de chair et d’os ?Guillaume Deneufbourg, Traducteur en exercice, titulaire d'une maîtrise de spécialisation en sciences du langage et traductologie, enseignant en traduction, Université de LilleLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1622912021-07-21T23:28:39Z2021-07-21T23:28:39ZLe temps passe-t-il pour l’intelligence artificielle ?<figure><img src="https://images.theconversation.com/files/408877/original/file-20210629-20-1ynwwvb.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C2047%2C1360&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">L’horloge mécanique la plus précise du monde, dite «&nbsp;Jens Olsen World Clock&nbsp;», à l’hôtel de ville de Copenhague.</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/virtualwayfarer/12906000774/">Alex Berger, Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc/4.0/">CC BY-NC</a></span></figcaption></figure><p>Les systèmes d’intelligence artificielle sont des systèmes informatiques qui sont le plus souvent dotés de la possibilité d’évoluer, de s’adapter et de s’automodifier. Leurs concepteurs cherchent à les rendre aussi autonomes que possible et ils en viennent souvent à se demander dans quelle mesure de tels systèmes pourraient acquérir la notion du temps.</p>
<p>Le problème central est celui de l’interprétation des données que l’on fournit à une machine pour qu’elle apprenne : les données de l’expérience ont besoin du temps pour être interprétées et, réciproquement, le temps a besoin de l’expérience pour prendre sa consistance et permettre l’interprétation des données. Il y a donc une intrication. On peut bien sûr apprendre à une machine toute sorte de choses, comme distinguer des tumeurs bénignes de tumeurs malignes sur des photos médicales, mais comment un robot pourrait-il se construire une notion de « temps », avec toute la richesse que ce mot représente ? Par exemple, dans le contexte d’une interaction avec des êtres humains, comment faire en sorte qu’un robot sache de lui-même s’il n’est pas trop rapide ou trop lent ? Comment parviendrait-il à se rendre compte que quelque chose a brusquement changé dans le comportement de son interlocuteur ?</p>
<h2>Le temps des robots est le temps des microprocesseurs</h2>
<p>À ce jour, l’ensemble des systèmes informatiques fonctionne sur les <a href="https://www.seuil.com/ouvrage/la-machine-de-turing-jean-yves-girard/9782020369282">bases algorithmiques posées par Alan Turing en 1936</a>. Alan Turing partit de l’hypothèse que toute méthode systématique de résolution d’un problème, c’est-à-dire tout algorithme, peut être traduite dans un langage qui s’adresse à une machine élémentaire réalisant des opérations de lecture-écriture sur un ruban infini.</p>
<p>Les systèmes informatiques dont nous disposons n’opèrent pas exactement sur ce type de machine, mais on admet généralement un <a href="https://www.lesbelleslettres.com/contributeur/jean-lassegue">principe d’équivalence</a> : tout ce qui peut être réalisé par une machine donnée peut également être réalisé par cette <a href="https://fr.wikipedia.org/wiki/Machine_de_Turing_universelle">machine de Turing, dite « universelle »</a>.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/408876/original/file-20210629-20-56r65z.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/408876/original/file-20210629-20-56r65z.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/408876/original/file-20210629-20-56r65z.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/408876/original/file-20210629-20-56r65z.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/408876/original/file-20210629-20-56r65z.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/408876/original/file-20210629-20-56r65z.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/408876/original/file-20210629-20-56r65z.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Un chip de microprocesseur.</span>
<span class="attribution"><a class="source" href="https://unsplash.com/photos/ziFuECDh8hc">Laura Ockel/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Ce point est particulièrement important pour comprendre les évolutions temporelles des systèmes d’intelligence artificielle. En effet, ceux-ci utilisent des calculs « parallèles » : au lieu de faire une opération après l’autre, ces systèmes peuvent, comme dans un cerveau, faire interagir des milliers de composants simultanément. On parle souvent à propos de telles architectures de « connexionnisme » : il ne s’agit pas seulement comme dans le cas du parallélisme classique de faire interagir plusieurs systèmes en même temps, mais de parvenir à coordonner une myriade d’unités de calcul, et ce sans unité centrale.</p>
<p>Dans ce contexte, le principe d’équivalence énoncé par Turing tient encore : une architecture en réseau peut accélérer les calculs, mais ne peut jamais permettre de faire ce qui est hors de portée pour une machine séquentielle. En ce qui concerne le temps d’exécution des algorithmes, cela signifie que si j’ai une machine avec des millions de neurones formels qui changent d’état en parallèle, j’aurais probablement la possibilité d’effectuer des algorithmes de manière plus rapide, mais le temps intrinsèque de la machine sera toujours donné par le temps des horloges des microprocesseurs qui cadencent cette machine. Il existe plusieurs dispositifs de calcul non classiques, tels que les ordinateurs quantiques ou les puces dites neuromorphiques : certes, leur programmation oblige à penser de façon différente et sont la source de nombreuses promesses pour repousser les frontières du calcul, cependant ils n’échappent nullement au principe d’équivalence de Turing et aux limites que cette équivalence impose.</p>
<p>Un système d’intelligence artificielle reste donc conditionné dans son rapport au temps par sa structure algorithmique discrète, laquelle décrit l’évolution des systèmes pas à pas. Le temps informatique est donc toujours mesuré comme un nombre d’étapes, que celles-ci soient parallèles ou séquentielles.</p>
<h2>Quelles sont les conséquences de telles limitations ?</h2>
<p>Il y a une inhomogénéité fondamentale entre le temps des êtres humains et celui des machines. Il faut garder à l’esprit que n’importe quel ordinateur, téléphone, ou même n’importe quelle puce qui se trouve dans une machine à laver effectue des milliards d’opérations par seconde. En d’autres termes, l’échelle avec laquelle les cadences des microprocesseurs sont mesurées est le gigahertz. Si l’on pouvait se placer du point de vue des robots, nous verrions les êtres humains comme des lourdauds qui pensent et se meuvent à une vitesse phénoménalement lente. On peut faire une analogie avec la manière dont les plantes évoluent pour nous. Les robots seraient donc amenés à se brider considérablement pour « s’abaisser » à notre rythme !</p>
<p>D’ailleurs, ces problèmes ont été perçus dès le début de la réflexion sur la question de l’intelligence artificielle. Alan Turing, par exemple, dans son article de 1950, demande à ce que la machine qui remplace un être humain jouant au jeu de l’imitation marque un temps d’arrêt artificiel avant de donner le résultat d’une multiplication, sans quoi elle serait immédiatement démasquée. De tels délais sont aujourd’hui utilisés pour rendre les conversations des « assistants vocaux » plus naturels.</p>
<p>La science-fiction a aussi souvent exploité le filon de l’incommensurabilité du temps humain et du temps des machines. Par exemple, dans le film <em>Her</em> de Spike Jonze (2013), le protagoniste est séduit par son système d’exploitation et finit par tomber amoureux d’« elle ». Néanmoins, au plus fort de leur liaison (platonique), elle lui avoue que, pendant la durée de leur conversation intime, elle a pu lire plusieurs milliers de livres et converser avec plusieurs centaines d’autres personnes.</p>
<p>Le roman d’Antoine Bello <em>Ada</em> met en scène une créature virtuelle chargée d’écrire des romans à l’eau de rose et un inspecteur qui cherche à la retrouver après qu’elle s’échappe de l’atelier de ses créateurs. Ada sait jouer avec les sentiments de l’inspecteur et elle a la fâcheuse tendance à effectuer des recherches sur des éléments de sa vie en même temps qu’ils discutent. Quant à sa collègue, Jessica, celle-ci est programmée pour écrire des biographies personnalisées avec la faculté de traiter des dizaines de milliers de clients en parallèle… L’imaginaire de l’intelligence artificielle nous rappelle que les créatures artificielles manquent cruellement d’un ici et d’un maintenant pour pouvoir être considérées pleinement comme autre chose que des objets.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/408878/original/file-20210629-25-1m7wu8u.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/408878/original/file-20210629-25-1m7wu8u.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=404&fit=crop&dpr=1 600w, https://images.theconversation.com/files/408878/original/file-20210629-25-1m7wu8u.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=404&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/408878/original/file-20210629-25-1m7wu8u.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=404&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/408878/original/file-20210629-25-1m7wu8u.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=508&fit=crop&dpr=1 754w, https://images.theconversation.com/files/408878/original/file-20210629-25-1m7wu8u.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=508&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/408878/original/file-20210629-25-1m7wu8u.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=508&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">L’horloge atomique d’Hewlett-Packard, qui définissait le temps sur le fuseau horaire japonais.</span>
<span class="attribution"><a class="source" href="https://www.flickr.com/photos/halfrain/14800007809/">halfrain/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc/4.0/">CC BY-NC</a></span>
</figcaption>
</figure>
<p>Les chercheurs qui essaient de donner aux machines la possibilité d’interpréter le langage humain font aussi face à des défis colossaux. Saisir la temporalité reste ce qu’il y a de plus difficile. Une simple phrase comme « Maintenant, ça suffit ! », qu’un enfant comprend immédiatement, reste une énigme pour des systèmes informatiques, car que signifie ce « maintenant » ? Certainement pas la même chose que dans « Maintenant, il est temps de passer à table ». Chacun comprend que seule une expérience de la vie permet de saisir les nuances de la langue et que tout ne se ramène pas à des « faits » que l’on peut encoder dans des systèmes informatiques. En particulier, notre propre perception du temps qui passe s’inscrit dans une rythmicité journalière, qui s’inscrit dans une rythmicité plus longue (le mois, l’année, etc.), qui elle-même s’inscrit dans le chemin d’une vie, chemin qui prend son sens dans son inscription dans une histoire plus longue, voire dans un rapport à un temps non mesurable comme le montrent les mythes de toutes les civilisations.</p>
<p>Le véritable danger de l’intelligence artificielle, en voulant sans cesse tout accélérer, ne serait-il pas d’occulter cette dimension fondamentale de l’être humain à savoir, non pas seulement que les choses <em>prennent</em> du temps, mais aussi que la maturation de toute bonne chose demande un temps incompressible ? Les blés ont besoin de temps pour mûrir et le pain a besoin d’un temps pour cuire. Si un jour les robots comprennent cela, on pourra dire qu’ils seront devenus alors véritablement… « humains ».</p><img src="https://counter.theconversation.com/content/162291/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Nazim Fatès ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Comment les machines comptent-elles le temps qui passe ? Y a-t-il des limites à leur rapidité de calcul ? Dans quelle mesure de tels systèmes acquièrent-ils la notion du temps ?Nazim Fatès, Chargé de recherches, InriaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1572502021-03-17T19:17:36Z2021-03-17T19:17:36ZSemi-conducteurs : une pénurie appelée à durer<figure><img src="https://images.theconversation.com/files/389798/original/file-20210316-18-wjkb2u.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C8208%2C4703&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">En 2020, l’industrie mondiale des semi-conducteurs représentait 439&nbsp;milliards de dollars, contre 314&nbsp;milliards il y a 10&nbsp;ans.
</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/image-photo/mobile-phone-repair-hands-closeup-on-1284757168">Shutterstock</a></span></figcaption></figure><p>Depuis la fin 2020, le monde de l’industrie s’inquiète d’une pénurie de semi-conducteurs, ces circuits intégrés micro et nanoélectroniques qui permettent de traiter l’information, la sauvegarder ou la transférer.</p>
<p>Présents dans nos téléphones, nos ordinateurs mais aussi nos réfrigérateurs ou nos voitures, ces composants, mal connus car microscopiques et dont la production est complexe, pourraient même venir à <a href="https://www.lesechos.fr/tech-medias/hightech/pourquoi-la-penurie-de-puces-electroniques-va-durer-1295790">manquer durablement</a>. Comment l’expliquer ?</p>
<p>La première raison tient à une forte augmentation de la demande en matériel informatique depuis 20 ans et qui s’est accélérée depuis le début de la crise de la Covid-19. L’industrie mondiale des semi-conducteurs, qui rassemble l’ensemble des firmes engagées dans la conception ou la fabrication des circuits intégrés, <a href="https://www.wsts.org/">représentait en 2020</a> 439 milliards de dollars contre 314 milliards de dollars en 2010.</p>
<p>Cette tendance reflète l’élargissement du marché grâce à l’exploration de nouveaux domaines d’application dans des secteurs clés de la société contemporaine comme le médical ou l’environnement. Cette diversité des usages et des débouchés a été stimulée par la miniaturisation des composants qui augmente la performance de ce produit intermédiaire, tout en en diminuant les coûts de production et en conséquence le <a href="https://www.aeaweb.org/articles?id=10.1257/aer.91.1.1">prix à la vente</a>.</p>
<h2>Un marché instable</h2>
<p>La deuxième explication de la pénurie est liée à la complexité du marché qui freine l’adaptation de l’offre à la demande. L’industrie microélectronique reste en effet <a href="http://bibliotheques.cg971.fr/bdp/faces/details.xhtml?id=p%3A%3Ausmarcdef_0000086925&">structurellement fragile</a> en raison du produit en lui-même et des évolutions instables des ventes.</p>
<p>D’abord, comme nous l’avions montré dans un <a href="http://www.theses.fr/2012CAEN0689">travail de recherche</a> sur le sujet en 2012, les semi-conducteurs sont des produits de haute technologie à durée de vie courte car l’innovation tient une place centrale dans cette industrie. La recherche et développement représente depuis les années 2000 entre <a href="https://vipress.net/vers-un-montant-record-de-714-milliards-de-dollars-en-rd-pour-les-semiconducteurs-en-2021/">12 et 18 % du chiffre d’affaires</a> des entreprises.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/389854/original/file-20210316-23-f1q8bl.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/389854/original/file-20210316-23-f1q8bl.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=399&fit=crop&dpr=1 600w, https://images.theconversation.com/files/389854/original/file-20210316-23-f1q8bl.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=399&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/389854/original/file-20210316-23-f1q8bl.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=399&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/389854/original/file-20210316-23-f1q8bl.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=502&fit=crop&dpr=1 754w, https://images.theconversation.com/files/389854/original/file-20210316-23-f1q8bl.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=502&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/389854/original/file-20210316-23-f1q8bl.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=502&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Intel domine l’investissement en R&D dans l’industrie des semi-producteurs, avec une part d’environ 19 % du total de ce secteur en 2020. (Source : Vipress)</span>
<span class="attribution"><a class="source" href="https://www.shutterstock.com/image-photo/bangkok-thailand-march-05-2015-early-257898545">Shutterstock</a></span>
</figcaption>
</figure>
<p>Ensuite, le marché est cyclique et très sensible aux évolutions macroéconomiques. En effet, on assiste, lorsque l’économie va bien, à une augmentation de la demande et donc une hausse des prix. Cela pousse les entreprises à investir à long terme pour accroître les capacités de production. S’en suit une période durant laquelle les capacités de production finissent par effectivement être plus importantes permettant une baisse des prix et donc une baisse des investissements. Ces phases alternent depuis maintenant de <a href="http://www.theses.fr/2012CAEN0689">nombreuses années</a>.</p>
<p>Aujourd’hui, la situation se complexifie encore car le choc – lié à la pandémie et au confinement associé – est particulièrement violent : les capacités de production ne peuvent s’adapter à moyen/court terme à une demande de produits électroniques qui a explosé. Par conséquent, les industries utilisatrices de semi-conducteurs, l’informatique bien sûr, mais aussi l’automobile, sont elles-mêmes bloquées dans leur production. Et le consommateur risque de devoir faire face à une hausse des prix de leurs produits.</p>
<h2>Dépendance à l’Asie</h2>
<p>Dans un secteur aussi central et stratégique, la concurrence est intense à l’échelle des États. En effet, l’industrie électronique a toujours intéressé les pouvoirs publics qui ont souvent choisi d’intervenir sur le marché par l’intermédiaire d’aides à la recherche ou d’entreprises nationales. Des <a href="http://www.senat.fr/notice-rapport/2007/r07-417-notice.html">investissements étatiques</a> ont aussi favorisé le développement de l’électronique grand public au Japon dans les années 1980, par exemple.</p>
<p>Aujourd’hui, la production de semi-conducteurs reste très mal répartie dans le monde et clairement l’Europe est en situation de faiblesse sur ce point. Ainsi, fin 2019, la capacité de production mondiale équivalait à 19,4 millions de wafers (tranches de matériau semi-conducteur utilisées pour fabriquer des composants) et la production européenne n’était déjà, à ce moment, que de 1,1 million de wafers.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/zAbXE6WgGBw?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">« Le marché mondial des semi-conducteurs », Mounia Van de Casteele (Xerfi Canal, 2019).</span></figcaption>
</figure>
<p>En guise de comparaison, le Japon produisait à l’époque 3,2 millions de wafers, les États-Unis 2,4 et la Chine 2,6. Cette dernière a continué d’investir pour accroître ses capacités ces dernières années et diminuer son retard vis-à-vis de ses puissants voisins, Taïwan et la Corée du Sud. Ils dominaient le marché et se répartissaient à peu près équitablement 8,4 millions de wafers. À ce constat sur les quantités produites s’ajoute le fait que la production européenne ne concerne pas les technologies les plus avancées, <a href="https://vipress.net/les-capacites-de-production-de-semiconducteurs-vont-fortement-augmenter-en-2020-et-2021/">majoritairement produites</a> en Corée du Sud.</p>
<p>Si l’Europe veut limiter sa dépendance à l’extérieur et accroître ses capacités de production, un important travail va donc devoir être réalisé pour augmenter les investissements dans le secteur et rattraper une partie du retard cumulé. Cependant, ce rattrapage ne sera pas suffisant, car l’Europe devra aussi accéder aux matériaux de base permettant la production de semi-conducteurs, en l’occurrence les terres rares.</p>
<h2>Un avantage stratégique pour la Chine</h2>
<p>Les terres rares forment une famille de dix-sept éléments chimiques aux propriétés électromagnétiques et électrochimiques proches et exceptionnelles. Certaines interviennent de façon cruciale dans la production de certains semi-conducteurs, et d’autres dans la production de nombreux autres composants nécessaires aux nouvelles technologies.</p>
<p>Comme la plupart des ressources stratégiques – minérales ou biologiques –, les terres rares ne sont pas réparties de façon homogène à la surface du globe et/ou ne sont également pas exploitables partout où il s’en trouve (conditionnalités environnementales, technologiques et économiques). Or, aujourd’hui, plus de 80 % des terres rares produites dans le monde le sont en Chine. En 2006 et 2010, ce ratio était monté à… 98 % !</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1189017133277155333"}"></div></p>
<p>La Chine a mis 20 ans à <a href="https://theconversation.com/comment-la-chine-a-pris-le-controle-du-marche-des-terres-rares-69967">construire, délibérément, cet avantage stratégique</a>. Le dirigeant Deng Xiaoping n’avait-il pas d’ailleurs prophétisé, au début des années 1990 : « il y a le pétrole en Arabie saoudite, il y a les terres rares en Chine » ?</p>
<p>Près de 20 ans plus tard, son vœu de tirer un avantage stratégique de cette ressource géologique est exaucé : personne ne peut, à court ou moyen terme, desserrer significativement cette mainmise sur des substances dont, dans une majorité de domaines de haute technologie, on sait ne pas pouvoir se passer. Or, nous avons montré dans un <a href="https://fr.calameo.com/read/0050108445ead183b4c77">travail de recherche</a> en 2016 sur la géoéconomie des terres rares que la Chine s’en sert comme une arme dans ses confrontations géopolitiques et géoéconomiques avec les Occidentaux et les Japonais.</p>
<p>La pénurie de semi-conducteurs souligne à quel point les tensions géopolitiques peuvent s’immiscer dans notre quotidien : la clé pour sortir de cette pénurie ne saurait être seulement technologique ou logistique mais dépend grandement de l’évolution dans les mois venir des relations entre les principales puissances géoéconomiques impliquées, notamment les Occidentaux et la Chine.</p><img src="https://counter.theconversation.com/content/157250/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>La complexité du produit et du marché des circuits intégrés freine l’adaptation de l’offre à une demande qui a explosé ces dernières années.Mathilde Aubry, Enseignant Chercheur, EM NormandieLudovic Jeanne, Géographe, Laboratoire Métis, EM NormandieLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1500012020-11-20T11:00:52Z2020-11-20T11:00:52ZEt si les machines pouvaient nous rendre plus humains ?<p>En termes de calcul, les ordinateurs ont atteint des capacités bien supérieures aux nôtres depuis longtemps. Cela leur permet aujourd’hui de résoudre un certain nombre de tâches dans des domaines aussi variés que la reconnaissance d’image, le traitement automatique de la langue telle que nous la parlons (langue naturelle), la détection de fraude ou le ciblage marketing. Ces progrès ont été rendus possibles en particulier grâce aux progrès de l’intelligence artificielle, qui nécessitent à la fois beaucoup de données et une grande puissance de calcul. Pour autant, l’intelligence se résume-t-elle à une capacité de calcul ?</p>
<p>Aujourd’hui, des robots et personnages virtuels apparaissent dans notre environnement en incarnant de plus en plus souvent des <a href="https://ieeexplore.ieee.org/abstract/document/5191189">rôles sociaux particuliers</a> : tuteur virtuel, conseiller, compagnon, coach, etc.. Dans ces contextes d’usages, les machines doivent être dotées d’une certaine forme d’intelligence sociale et émotionnelle pour être capable de coopérer et de s’engager dans une interaction sociale avec l’utilisateur. L’intelligence sociale se définit comme la capacité de reconnaître et d’exprimer des comportements sociaux, tels que la politesse ou la dominance, et la capacité de gérer ces comportements pour construire une <a href="https://www.ocf.berkeley.edu/%7Ejfkihlstrom/PDFs/2010s/2011/KihlstromCantor_SocialIntelligence_3e_2011.pdf">relation sociale</a> avec un autre individu et <a href="https://books.google.fr/books?hl=fr&lr=&id=5L_7TjmvdYgC">l’amener à coopérer</a>. <a href="https://www.tandfonline.com/doi/abs/10.1207/s15327965pli1503_02?journalCode=hpli20">L’intelligence émotionnelle</a> se définit quant à elle comme la capacité de reconnaître, exprimer et gérer ses propres émotions et celles d’autrui.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"593380227553693696"}"></div></p>
<p>Du point de vue de la machine, cette intelligence socio-émotionnelle est d’autant plus importante que l’utilisateur lui-même a une propension à adopter un comportement social face à ces entités artificielles : c’est le paradigme CASA (« Computers Are Social Actors »). De nombreux travaux ont montré une tendance naturelle, souvent inconsciente, à adopter des comportements sociaux envers la machine (politesse, sourires). Les utilisateurs ont de plus tendance à <a href="https://link.springer.com/chapter/10.1007/978-3-642-04380-2_19">anthropomorphiser les systèmes interactifs</a>, même les plus simples d’entre eux, en leur attribuant un genre, une ethnie, et une personnalité.</p>
<p>Dans la perspective de doter les systèmes interactifs d’une intelligence sociale et émotionnelle sont nés deux courants de recherche de l’intelligence artificielle : l’<a href="https://books.google.fr/books?hl=fr&lr=&id=GaVncRTcb1gC">Informatique Affective</a> (<em>Affective Computing</em>) et le <a href="https://ieeexplore.ieee.org/abstract/document/7258495">traitement automatique des signaux sociaux</a> (<em>Social Signal Processing</em> (SSP)).</p>
<h2>La coopération entre l’humain et la machine</h2>
<p>Ces courants de recherche ont pour objectif de développer des systèmes interactifs (personnages virtuels, robots ou avatars) capables de reconnaître, comprendre et exprimer des émotions et des comportements sociaux. Ceux-ci peuvent cependant être source d’inquiétude pour les utilisateurs, une inquiétude largement entretenue par les médias ou le cinéma. Qu’une machine ait une grande puissance de calcul est acceptable, mais le fait qu’on la dote d’émotions, une caractéristique si humaine, peut l’être beaucoup moins. Le propos de cet article est de montrer que l’enjeu de la recherche sur ces thématiques n’est pas de remplacer l’humain mais de permettre aux machines de mieux reconnaître ses émotions pour s’adapter à son comportement. En voici quelques illustrations.</p>
<p>Les robots, les avatars ou les personnages virtuels peuvent par exemple être utilisés pour promouvoir des coopérations entre individus grâce à des <a href="http://web.tecnico.ulisboa.pt/franciscocsantos/MyArticles/PaivaSantosSantos-AAAI2018-BlueSky.pdf">comportements “prosociaux”</a>. Les questionnements sur l’utilisation de l’IA et son impact éthique et sociétal sont récents. Ainsi émerge un nouveau courant de recherche, <a href="http://web.tecnico.ulisboa.pt/franciscocsantos/MyArticles/PaivaSantosSantos-AAAI2018-BlueSky.pdf">l’informatique prosociale</a>, qui se définit comme « l’informatique visant à soutenir et à promouvoir des actions qui profitent à la société et aux autres ». Nous le savons, le comportement des machines peut influencer le comportement humain. Par exemple, un simple regard de robot suffit à <a href="https://link.springer.com/article/10.1007/s12110-007-9012-2">déclencher un comportement altruiste</a> chez l’humain. Il faut donc être conscient de cela pour décider comment utiliser ces capacités pour le bien-être de tous. En d’autres termes, si la recherche permet de développer des technologies socio-émotionnelles, c’est à la société, c’est-à-dire nous tous, de décider comment utiliser ces technologies.</p>
<p>Dans un domaine différent, l’e-éducation, un intérêt croissant est apparu autour de la « formation par la simulation » à l’aide d’environnements virtuels. Un certain nombre de travaux ont été conduits autour de dispositifs permettant à une personne d’entraîner ses compétences sociales à l’aide de <a href="https://link.springer.com/content/pdf/10.1007/s12193-018-00291-7.pdf">personnages virtuels</a> (« Virtual Agents for Social Skills Training (VASST) ». Par exemple, le <a href="https://link.springer.com/chapter/10.1007/978-3-319-03161-3_35">projet Tardis</a> propose un personnage virtuel jouant le rôle d’un recruteur utilisé pour former aux entretiens d’embauche. Le système permet de détecter et d’analyser en temps réel la production de l’utilisateur (hésitations, silence, posture, gestes, expressions du visage, etc.). Des indices comportementaux en sont extraits, permettant de donner des indications sur la qualité de l’entretien et de fournir un retour à l’utilisateur. Plusieurs expérimentations ont montré que des systèmes de ce type sont efficaces en termes d’entraînement.</p>
<p>Dans le <a href="https://d1wqtxts1xzle7.cloudfront.net/30601563/Fostering_empathic_behaviour_in_children_and_young_people_LH-SJJ-RA_Jan_25th_2011_20%282%29_20%283%29.pdf?1361178345=&response-content-disposition=inline%3B+filename%3DFostering_Empathic_Behaviour_In_Children.pdf&Expires=1605713903&Signature=Rlwb3gC5R9XI-gfb%7EEaNKKeTRIA4xHZ6HnPTyF3gL5TwBWBKiRcRdah-FLdJkTd54oXDo4416jqsAKEHfv%7Ezh6BHosJUGe03L3JuWeasGhIvdgjD94-UU7GBJtd7wH7n9bQqqjn1UTDa%7EE5JwflduLivSepQDkXvJM1Mf%7EKbuOB0NYtrQgoluPWJxA1c9WDxlZWADb8yrAORKEe-YM1ksxdVmi3hZhWJTkqXLN2RGI6p8JI4V7vVGA4C6yq7-yWFTKnFyTpPfbdaDMS4hlxhL3xQmFSItOaLLuoZOkEe7mTrwH8NiRCx4HELuW-g%7Ep6nOe5Dhv7cR8jx%7EvtqmDKsXA__&Key-Pair-Id=APKAJLOHF5GGSLRBV4ZA">projet eCUTE</a>, les enfants et les jeunes adultes sont confrontés à différentes situations utilisant des personnages virtuels pour la sensibilisation aux différences culturelles permettant en particulier de développer leur capacité d’empathie. <a href="https://link.springer.com/chapter/10.1007/978-3-540-77039-8_19">La plate-forme FearNot !</a> a de son côté été développée pour lutter contre les comportements de harcèlement scolaire à l’école. Elle repose sur la capacité des individus à ressentir de l’empathie y compris pour des personnages virtuels. En jouant le rôle de la victime à travers un personnage virtuel dans une situation de harcèlement scolaire, les harceleurs changent leur comportement. Dans un autre registre, des travaux montrent également, grâce à une audience virtuelle capable de s’adapter au comportement de l’orateur, la possibilité de s’entraîner à la <a href="https://dl.acm.org/doi/abs/10.1145/3267851.3267874">prise de parole en public</a>. Par exemple, un comportement inadapté de l’orateur engendrera une audience virtuelle simulant l’ennui.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/dTE14lPBO98?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Cicero 2.0 : audience virtuelle/Mathieu Chollet.</span></figcaption>
</figure>
<p>Dans le <a href="https://dl.acm.org/doi/abs/10.1145/3308532.3329418">projet VICTEAMS</a>, un environnement de réalité virtuelle peuplé de personnages virtuels est développé afin de former les leaders d’équipes médicales dans des situations de crise.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/AEabDyTxxV4?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Projet VICTEAMS/Domitile Lourdeaux.</span></figcaption>
</figure>
<p><a href="https://link.springer.com/article/10.1007%2Fs12193-018-0289-8">Dans nos propres travaux</a>, nous avons développé un environnement permettant aux médecins de s’entraîner à l’annonce d’événements indésirables face à un patient virtuel. La façon dont les médecins délivrent des mauvaises nouvelles à un patient a en effet un impact significatif sur le processus thérapeutique (évolution de la maladie, effets secondaires des traitements, litiges, etc.). Cependant, les cliniciens expérimentés de même que les étudiants restent très peu formés sur cette problématique (coût, manque de temps) en dépit des préconisations faites par la Haute Autorité de la Santé (HAS). Pour répondre à cette demande, nous avons développé une plate-forme de réalité virtuelle dans laquelle le médecin peut dialoguer naturellement avec une patiente virtuelle. Le système permet de reconnaître et de comprendre en temps réel le discours du médecin. Le moteur de dialogue traite ainsi le message et génère la réponse de l’agent virtuel, exprimée à la fois verbalement par une synthèse vocale expressive ainsi que par un ensemble de comportements non-verbaux traduisant notamment son état émotionnel (e.g. expressions faciales d’émotion, gestes de douleurs, etc.).</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/HedXD2m-XcY?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Projet Acorformed/Magalie Ochs.</span></figcaption>
</figure>
<p>Il existe bien d’autres exemples d’applications, par exemple pour aider les enfants autistes, pour lutter contre nos phobies sociales, ou encore pour accompagner les personnes âgées dans leur vie quotidienne. Dans tous ces exemples, l’objectif n’est pas de remplacer l’humain mais bien de compléter des besoins liés au cloisonnement social, au manque de formation, etc. Les personnages virtuels, les robots, ou les avatars peuvent nous aider, nous, humains, à nous rendre plus humains.</p>
<h2>Le côté sombre de l’intelligence artificielle</h2>
<p>Sans aucun doute, nous ne devons être ni naïfs, ni exagérément optimistes face à l’intelligence artificielle. Il existe des risques éthiques, sociaux, politiques (notamment de manipulation et de discrimination) dans ces applications face auxquels nous chercheurs, avons le devoir de veiller. Nous avons un devoir collectif face à cela. Notre rôle est de poursuivre le développement et l’avancée de ces techniques. Mais il est dans le même temps nécessaire d’assurer la transparence la plus complète sur nos systèmes, ce qu’ils sont capables de faire, ce qu’ils ne peuvent toujours pas faire, et ce qu’ils ne seront jamais capables de faire. C’est cette transparence qui permettra à la société entière de décider collectivement les usages que l’on doit envisager pour ces techniques. Les machines sont à notre service et non l’inverse, une machine ne doit pas prendre une décision à notre place. Et nous devons, ensemble, imposer cette transparence. C’est à cette condition que nous pourrons veiller à ne pas être déshumanisés par des machines.</p><img src="https://counter.theconversation.com/content/150001/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Les ordinateurs et les robots sont aujourd’hui dotés de compétences sociales leur permettant de converser avec nous en se montrant capables d’exprimer des émotions.Magalie Ochs, Chercheuse en Intelligence Socio-Emotionnelle Artificielle, Aix-Marseille Université (AMU)Noël Nguyen, Professeur, Aix-Marseille Université (AMU)Philippe Blache, Directeur de Institute of Language, Communication and the Brain, Aix-Marseille Université (AMU)Roxane Bertrand, Chargée de recherche CNRS, Linguiste, Analyse des Interactions, Aix-Marseille Université (AMU)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1429162020-07-21T17:46:31Z2020-07-21T17:46:31ZL’investissement privé, un levier capital de la reprise industrielle<figure><img src="https://images.theconversation.com/files/348100/original/file-20200717-27-5277fn.jpg?ixlib=rb-1.1.0&rect=0%2C7%2C5120%2C2866&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Seulement 15&nbsp;% des entreprises manufacturières ont un investissement immatériel non nul chaque année et près de 40&nbsp;% de cet investissement est réalisé par les grandes entreprises.</span> <span class="attribution"><a class="source" href="https://image.shutterstock.com/image-photo/factory-female-mechanical-engineer-designs-600w-1335833930.jpg">Gorodenkoff / Shutterstock</a></span></figcaption></figure><p>En avril, la production industrielle <a href="https://www.franceindustrie.org/tableau-de-bord-mensuel/">a chuté d’un tiers</a> par rapport à son niveau d’avant-crise, une baisse historique qui a marqué durablement l’activité économique de notre pays.</p>
<p>La reprise se confirme au fur et à mesure du reflux de l’épidémie mais pour certains secteurs, plus touchés que d’autres comme les industries automobile et aéronautique, il paraît pour l’instant compliqué de prédire quand aura lieu le retour à la normale.</p>
<p>Une <a href="https://www.lesechos.fr/economie-france/conjoncture/coronavirus-pres-dun-demi-million-demplois-industriels-menaces-dici-2022-1218639">étude</a> récente du cabinet PwC pour l’Union des industries et métiers de la métallurgie (UIMM) estime même que la part des entreprises ayant un excédent brut d’exploitation négatif, c’est-à-dire dont le chiffre d’affaires n’a pas suffi à couvrir les charges liées à sa réalisation, pourrait doubler en 2021.</p>
<p>Cette situation entraîne le report voire l’annulation de nombreux projets d’investissement, qui sont pourtant des leviers nécessaires à l’activité de demain.</p>
<p>L’industrie française doit au contraire pouvoir préparer son avenir.</p>
<h2>Un effort plus limité qu’il n’y paraît</h2>
<p>Selon les comptes nationaux, les industriels français investissent plus que leurs partenaires européens, cet écart en faveur de la France étant particulièrement élevé dans les logiciels et bases de données : le secteur manufacturier français investirait 6,3 % de sa valeur ajoutée dans les logiciels et bases de données contre 1 % en Allemagne en 2017.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/348095/original/file-20200717-37-1e4yn8a.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/348095/original/file-20200717-37-1e4yn8a.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/348095/original/file-20200717-37-1e4yn8a.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=401&fit=crop&dpr=1 600w, https://images.theconversation.com/files/348095/original/file-20200717-37-1e4yn8a.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=401&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/348095/original/file-20200717-37-1e4yn8a.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=401&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/348095/original/file-20200717-37-1e4yn8a.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=504&fit=crop&dpr=1 754w, https://images.theconversation.com/files/348095/original/file-20200717-37-1e4yn8a.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=504&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/348095/original/file-20200717-37-1e4yn8a.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=504&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Analyse de l’investissement de l’industrie française. La Fabrique de l’industrie.</span>
<span class="attribution"><a class="source" href="https://www.la-fabrique.fr/fr/publication/a-la-recherche-de-limmateriel-comprendre-linvestissement-de-lindustrie-francaise-2/">données EU KLEMS</a></span>
</figcaption>
</figure>
<p>De quoi préparer sa compétitivité de demain et prendre une revanche sur des décennies douloureuses ? En apparence seulement…</p>
<p>Ce surplus d’investissement en logiciels est en réalité moins important. En effet, comme le révèle notre dernière <a href="https://www.la-fabrique.fr/wp-content/uploads/2019/11/LFI_Note-31-web.pdf">note</a> réalisée en partenariat avec l’Observatoire français des conjonctures économiques (OFCE), cet écart est dû en grande partie à un traitement comptable différent des dépenses en logiciels dans la comptabilité nationale française.</p>
<p>Elles y sont plus souvent immobilisées, c’est-à-dire inscrites comme étant utilisées de façon durable dans le processus de fabrication, alors qu’elles sont plus souvent identifiées comme des consommations intermédiaires dans les autres pays.</p>
<p>Si on met de côté cette différence de pratiques, les dépenses en logiciels et services informatiques des industriels français seraient à peine plus élevées que celles de leurs voisins, soit un surplus de l’ordre de 2 milliards d’euros par an.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/k9hm5h-FJoM?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Comprendre l’investissement des entreprises françaises.</span></figcaption>
</figure>
<p>Comment les industriels français se préparent-ils donc à la transition numérique et écologique ? L’analyse de l’investissement au niveau micro des entreprises permet d’en savoir plus.</p>
<h2>Investir pour accélérer la transition écologique</h2>
<p>L’investissement immatériel (logiciels, bases de données, recherche et développement) est, en France comme ailleurs, concentré au sein des grandes entreprises et dans quelques secteurs.</p>
<p>Selon nos estimations, seulement 15 % des entreprises manufacturières ont un investissement immatériel non nul chaque année et près de 40 % de cet investissement est réalisé par les grandes entreprises.</p>
<p>Cela traduit un moindre investissement de la part des entreprises de plus petite taille, qui ont pourtant un rôle essentiel à jouer dans l’offre de solutions innovantes pour répondre aux enjeux de demain, et notamment dans le domaine de la transition bas carbone.</p>
<p>Ajoutons que le secteur manufacturier français souffre depuis plusieurs années d’un sous-investissement dans les machines et équipements : en effet, le taux d’investissement en machines et équipements était de 7,6 % en France en 2017, contre 8,4 % en Allemagne, selon nos calculs réalisés à partir des <a href="https://euklems.eu/download/">données 2019</a> du projet de recherche EU KLEMS.</p>
<p>Or, l’acquisition de nouvelles machines plus performantes, émettant moins de dioxyde de carbone (CO<sub>2</sub>) par unité produite, est un moyen pour les industriels de réduire leur empreinte carbone.</p>
<p>Pour accélérer la transition écologique, des investissements importants doivent être réalisés en ce moment précis où les industriels manquent de marges et doivent gérer l’impact de la crise sur leur trésorerie. Le soutien à l’investissement – autant dans les actifs matériels que dans la numérisation de l’appareil productif – pourrait ainsi faire l’objet des mesures de relance à venir.</p><img src="https://counter.theconversation.com/content/142916/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Caroline Mini travaille pour le Think Tank La Fabrique de l'industrie. </span></em></p>Les chefs d’entreprise français revoient à la baisse des projets pourtant indispensables à la transition numérique et énergétique, au risque de perdre encore plus en compétitivité.Caroline Mini, Chercheur associé à l'Ecole des Mines parisTech et chef de projet à La Fabrique de l'industrie, Mines ParisLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1383672020-05-13T18:56:51Z2020-05-13T18:56:51ZLe « transmachinisme » : et si les machines évoluaient indépendamment de l’homme ?<figure><img src="https://images.theconversation.com/files/334062/original/file-20200511-49579-1x8w1sn.jpg?ixlib=rb-1.1.0&rect=0%2C307%2C3471%2C2184&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Il est peut-être plus facile de construire des machines qui nous ignorent que des machines qui nous ressemblent.</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/YKW0JjP7rlU">Franck V. / Unsplash</a></span></figcaption></figure><p>Le « transmachinisme » imagine une évolution des machines et de l’industrie en général non pas pour dépasser ou transformer l’homme, mais pour permettre aux machines de mieux faire leur travail de machines. Une voie certainement plus réaliste que la <a href="https://www.24pm.com/117-definitions/518-singularite-technologique">singularité technologique</a> ou le <a href="https://www.futura-sciences.com/tech/definitions/technologie-transhumanisme-16985/">transhumanisme</a>.</p>
<p>Les tenants de la singularité technologique imaginent une intelligence artificielle supérieure qui surclasserait infiniment celle de l’homme. Les transhumanistes, à l’inverse, espèrent l’avènement d’un homme augmenté physiquement et intellectuellement par la technologie.</p>
<p>Beaucoup d’attention a été portée à ces deux visions du futur. Plusieurs groupes d’élèves-ingénieurs du Pôle Léonard de Vinci examinent actuellement un autre scénario, celui où les machines évolueraient d’une manière assez indépendante des hommes, sans trop se mêler de leurs affaires. Nous l’appelons le transmachinisme.</p>
<h2>Des bulles productrices indépendantes</h2>
<p>La caractéristique la plus spectaculaire mise en avant aujourd’hui est l’autonomie, réelle ou souhaitée, des machines, en particulier celle des véhicules. Nous parlons ici des machines « mécaniques », comme celles qui font le café, ou qui envoient des hommes dans l’espace, et pas seulement des ordinateurs ou des téléphones. Poussons à l’extrême leur capacité d’autonomie, de même que les partisans de la singularité et du transhumanisme poussent à l’extrême les pouvoirs de l’intelligence désincarnée ou incarnée.</p>
<p>L’actualité nous y invite :</p>
<ul>
<li><p>Au Japon, vient de sortir une imprimante 3D de sushis : du poisson et du riz à l’entrée, des sushis sur mesure à la sortie. Hergé y avait déjà pensé en dessinant les abattoirs de Chicago dans <em>Tintin en Amérique</em> ;</p></li>
<li><p>La livraison par drones devient autorisée aux États-Unis, des avions de ligne décollent et atterrissent de manière entièrement automatique ;</p></li>
<li><p>Six camions Volvo évoluent de manière autonome dans la mine à ciel ouvert de Kristineberg en Norvège, pour charger et décharger les minerais ;</p></li>
<li><p>Toujours en Norvège, la société Kongsberg s’allie à Rolls Royce pour concevoir des navires autonomes. Mais nous reparlerons de la Norvège ;</p></li>
<li><p>Un engin voiturier autonome déplace les véhicules dans le parking de l’aéroport Saint-Exupéry de Lyon ;</p></li>
<li><p>Des betteraves connectées prototypées par l’Institut national de la recherche agronomique sont expérimentées dans les terres agricoles de Picardie.</p></li>
</ul>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/XdOirru4uGM?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Une imprimante 3D de la société OpenMeals produit des sushis.</span></figcaption>
</figure>
<p>L’idée vient naturellement que, mis bout à bout, tous ces sous-systèmes autonomes constitueraient des bulles productrices totalement indépendantes de l’homme. Entre la plantation d’une graine de teck dans une exploitation forestière en Asie et la livraison chez vous d’une table de jardin, tout se passerait sans aucune intervention humaine.</p>
<p>Si l’on s’imagine dans un monde transmachiniste, celui-ci concevra et produira ses propres sous-ensembles. Il les installera, les supervisera, les entretiendra, les dépannera, les recyclera. Il trouvera son énergie également de manière autonome. Il produira au passage ses propres ordinateurs, depuis les énormes engins d’extraction minière des métaux rares, jusqu’aux machines d’impression des circuits intégrés à la précision nanométrique.</p>
<p>Beaucoup d’éléments du puzzle sont déjà séparément en place : tous les grands acteurs du transport et de la restauration sont en concurrence effrénée pour nous livrer ce que l’on veut, quand on veut, où l’on veut.</p>
<p>En Chine, Starbucks, McDonald’s et des compagnies locales comme Luckin Coffee ouvrent chaque année des milliers de points de production d’où ils vous livrent n’importe où et en moins de 30 minutes pour moins de 5 dollars un bon café, et les nouveaux immeubles chinois sont équipés de réseaux d’ascenseurs dédiés à ce type de distribution. Les grands ports chargent et déchargent les conteneurs sur des quais vidés de toute présence humaine. La fabrication des puces électroniques est aujourd’hui quasi totalement automatisée.</p>
<h2>Vers une singularité du transmachinisme ?</h2>
<p>Deux évènements bouleversants se produiront si un jour ces systèmes évoluent de leur propre initiative (d’une manière qui ne nous serait largement incompréhensible) et s’ils ne nécessitent plus aucun investissement financier pour survivre et se développer (leur production serait gratuite).</p>
<p>Dans une étape intermédiaire, les machines réussiraient à comprendre le langage humain et à mettre deux idées l’une derrière l’autre. Elles sauraient relier toutes les connaissances que nous avons soigneusement accumulées, formalisées, et mises à disposition sur la toile : toutes les théories scientifiques, tous les codes de calcul, toutes les vidéos de pédagogie, tous les plans de toutes les machines conçues par l’homme.</p>
<p>Les connaissances sont déjà là, sur la toile, à la disposition de qui voudra bien les mettre bout à bout.</p>
<p>Ensuite, le système élaborerait ses propres connaissances, ses propres représentations, ses propres solutions, et sans doute il viendrait à oublier notre propre langage, sans plus se mêler de nos affaires.</p>
<p>Ces hypothèses poussées à l’extrême ne doivent pas nous étonner ou nous faire sourire plus que le transhumanisme ou la singularité technologique. Elles méritent tout autant nos interrogations sur leur possibilité ou leur impossibilité, sur leur désirabilité ou leur horreur. Elles ne font pas nécessairement appel à la notion de super intelligence en progrès exponentiel continu.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1096373694149083137"}"></div></p>
<p>On peut très bien imaginer qu’un tel système deviendrait conservateur, parcimonieux, rechercherait et trouverait des points d’équilibre, et n’évoluerait que très lentement. Les transmachines incorporeraient bien sûr leur propre <a href="https://whatis.techtarget.com/fr/definition/jumeau-numerique">jumeau numérique</a> qui servira autant à assurer leur bon fonctionnement qu’à explorer leurs futures évolutions.</p>
<h2>Retour au paradis terrestre ?</h2>
<p>Le transmachinisme peut se rêver comme un retour au paradis terrestre, comme la reconstruction d’une nature généreuse où couleraient le lait et le miel, un nouvel âge d’or. L’homme, chassé du paradis pour avoir préféré l’arbre de connaissance à l’arbre de vie, ayant ensuite par nécessité, à la sueur de son front, développé un savoir et un savoir-faire qui l’a conduit là où nous sommes, l’homme donc refermerait la boucle, retournerait au jardin d’Eden, en abandonnant les connaissances techniques aux machines.</p>
<p>Par contraste, le transhumanisme évoque plutôt un second péché originel, une seconde création, une émancipation radicale de la condition humaine présente, une fuite en avant de l’intelligence. Le retour à l’Eden transmachiniste délivrerait l’homme de l’exercice d’une intelligence asservie à l’impératif d’un <a href="https://www.lesechos.fr/idees-debats/cercle/le-transhumanisme-une-utopie-ou-un-danger-1011427">progrès sans fin</a>.</p>
<p>L’intelligence que ces transmachines devraient développer pour s’autogérer et survivre conduirait éventuellement à des modes de raisonnement et à des solutions bien différentes de notre génie mécanique et notre génie civil. C’est peut-être trop bête de vouloir singer l’homme. Quand on connaît de près l’effroyable désordre des programmes informatiques écrits par l’homme, on se prend à rêver d’architectures logicielles dont la pureté ne serait pas polluée par nos faiblesses cognitives.</p>
<p>Souhaitable ou pas, on peut penser que ce transmachinisme serait plus facile à accomplir que le transhumanisme : au fond, ce ne sont que des machines en dur qui transforment de l’énergie, de la matière ou des denrées alimentaires. On est loin de la complexité gélatineuse du vivant. Il est peut-être plus facile de construire des machines qui nous ignorent que des machines qui nous ressemblent. Et si nous nous obstinons à faire le travail des machines à leur place, comment voulez-vous qu’elles deviennent intelligentes ?</p>
<p>Finalement, le transmachinisme est un objectif plus humain et moins ambitieux que l’« homme-dieu » du transhumanisme, et la « machine-dieu » de la singularité technologique.</p>
<p>Afin de pousser plus loin la réflexion, voici quelques premières questions, d’une liste qui pourrait être longue :</p>
<ul>
<li><p>Saura-t-on fixer des limites aux transmachines si elles émergent, et pourra-t-on les faire respecter ?</p></li>
<li><p>Si l’homme, rassasié par une nature artificielle autonome et généreuse, s’affranchit du travail, que devient son intelligence, s’atrophie-t-elle, s’épanouit-elle, et vers quels horizons ?</p></li>
<li><p>L’homme peut-il rester intelligent sans travailler, sans lutter, sans adversité ? Un Homme sans nécessité ? Il est notable que les jeunes Norvégiens, dans un pays nourri à la manne pétrolière, <a href="https://www.tnp.no/norway/exclusive/2833-does-education-pay-off-in-norwayij">ne veulent plus faire d’études longues</a>, et que là-bas les médecins commencent à manquer ;</p></li>
<li><p>Qui des ingénieurs ou de ce nouvel Eden autonome colonisera Mars en premier ? Cette question s’adresse en partie à <a href="https://www.lefigaro.fr/societes/2019/01/11/20005-20190111ARTFIG00358-avec-starship-elon-musk-vise-mars.php">Elon Musk</a>, président-directeur général et directeur de la technologie de la société SpaceX, qui cherche à réunir des milliards pour conquérir la planète rouge ;</p></li>
<li><p>Sommes-nous en train de passer du projet de créer un homme nouveau à celui de créer une <a href="https://gouvernance.news/2020/03/05/ia-les-exploits-des-gafam-sont-loin-des-vrais-besoins-des-entreprises/">nature nouvelle</a>, de plus en plus occupée physiquement par des capteurs, des puces de silicium, des câbles, des fibres et des émetteurs-récepteurs radio ?</p></li>
</ul>
<p>Charles Aznavour, grand expert en humanité, a dit un jour : « mon travail est <a href="http://www.leparisien.fr/culture-loisirs/charles-aznavour-je-ne-suis-pas-une-star-21-10-2009-682224.php">plus intelligent que moi</a> ». Si nous pouvons tous méditer cette citation, il nous reste à approfondir notre travail de recherche afin de dessiner le puzzle du transmachinisme, repérer les pièces existantes et identifier les chaînons manquants.</p><img src="https://counter.theconversation.com/content/138367/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Jean Rohmer travaille pour le Pôle Léonard de Vinci. Il a reçu des financements de BPI France. Il est membre de l'Institut Fredrik Bull comme président.
</span></em></p>Dans ce scénario, toutes les étapes de la production à la distribution seraient assurées par des systèmes autogérés. Une voie plus plausible que le transhumanisme.Jean Rohmer, Docteur-Ingénieur ENSIMAG, Docteur-ès-Sciences – HDR en Informatique, Pôle Léonard de VinciLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1297992020-01-14T21:08:58Z2020-01-14T21:08:58ZLes caissières ne vont pas disparaître (tout de suite) des supermarchés<figure><img src="https://images.theconversation.com/files/309661/original/file-20200113-103963-5kyrfv.jpg?ixlib=rb-1.1.0&rect=398%2C40%2C2616%2C1964&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Pour l’heure, rien ne peut mieux se mettre au diapason d’un être humain qu’un autre être humain.</span> <span class="attribution"><a class="source" href="https://image.shutterstock.com/image-photo/cashdesk-cashier-terminal-supermarket-serve-600w-116486686.jpg">Andrey Burstein/Shutterstock</a></span></figcaption></figure><p>Un article récent dans les <a href="https://www.lesechos.fr/idees-debats/editos-analyses/pourquoi-les-caissieres-vont-completement-disparaitre-1154038"><em>Echos</em></a> prédisait la disparition des caissières. Mais des exemples récents contredisent cette idée, comme l’échec du supermarché automatisé Carrefour en <a href="https://www.capital.fr/entreprises-marches/le-magasin-sans-caissiers-de-carrefour-fait-un-flop-a-bruxelles-1347358">Belgique</a>.</p>
<p>La question à se poser serait donc : si la technologie pour automatiser le service existe, pourquoi certaines solutions ne marchent pas ? Pour répondre à cette question, il s’agit de réfléchir à la notion de valeur du service. Aujourd’hui, la recherche en management considère que ce qui fait le succès d’une entreprise, c’est sa capacité à créer de la valeur. Cependant, cette valeur est très subjective. C’est parce que l’attribution que chacun de nous donne à la valeur des objets que nous achetons réside dans notre perception, et à part très personnelle, cette perception est très contextuelle.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/309684/original/file-20200113-103966-1f6oljs.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/309684/original/file-20200113-103966-1f6oljs.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/309684/original/file-20200113-103966-1f6oljs.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=539&fit=crop&dpr=1 600w, https://images.theconversation.com/files/309684/original/file-20200113-103966-1f6oljs.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=539&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/309684/original/file-20200113-103966-1f6oljs.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=539&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/309684/original/file-20200113-103966-1f6oljs.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=678&fit=crop&dpr=1 754w, https://images.theconversation.com/files/309684/original/file-20200113-103966-1f6oljs.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=678&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/309684/original/file-20200113-103966-1f6oljs.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=678&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Pyramide des besoins selon le psychologue Abraham Maslow.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Pyramide_des_besoins_selon_Abraham_Maslow.png?uselang=fr">Antimuonium/Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Imaginez l’achat d’un iPhone. Lorsque nous achetons un iPhone, nous achetons le coût de sa production (disons 250 dollars) plus la valeur que nous attribuons à ses caractéristiques et fonctionnalités. On pourrait dire que, quand on achète un iPhone, on achète sa marque, sa fiabilité, sa fonctionnalité, sa technologie et la facilité d’utilisation de son interface. Individuellement, ces attributs ont une valeur difficile à mesurer. Ensemble, ils nous donnent une conception de valeur qui justifie le fait que nous sommes prêts à débourser 1 000 euros pour en acheter un.</p>
<p>La pyramide de Maslow nous permet aussi de comprendre l’évaluation de la valeur que nous donnons aux choses. Par exemple, quelqu’un qui considère la mode comme importante, achètera un sac de 5 000 euros car cela permettra de répondre au <a href="http://alain.battandier.free.fr/spip.php?article6">« besoin de s’accomplir »</a>. Cependant, une autre personne, qui ne donne aucune valeur à un sac, autre que sa fonctionnalité (porter des objets) ne dépensera jamais autant.</p>
<h2>Quelle est donc la valeur réelle des caissiers ?</h2>
<p>La valeur subjective que nous attribuons à chaque expérience ou service est encore plus difficile à estimer que celle que nous attribuons a un produit. Prenons la <a href="https://www.lexico.com/en/definition/service">définition</a> d’un service, il s’agit de l’action d’aider ou de faire quelque chose pour quelqu’un », « des systèmes répondant aux besoins du public » pour « accomplir un acte ou fournir une assistance » et « pour effectuer des tâches d’entretien de routine ».</p>
<p>Un caissier fournit un service qui consiste à rendre plus agile le processus d’achat. Peut-elle ou peut-il fournir des réponses aux clients (savez-vous quand vous stockez ce produit ? Acceptez-vous les chèques ?). Elle ou il peut sourire, dire bonjour ou se rappeler qui nous sommes.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/309655/original/file-20200113-103959-1umj32.jpg?ixlib=rb-1.1.0&rect=0%2C201%2C4296%2C3346&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/309655/original/file-20200113-103959-1umj32.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/309655/original/file-20200113-103959-1umj32.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/309655/original/file-20200113-103959-1umj32.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/309655/original/file-20200113-103959-1umj32.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/309655/original/file-20200113-103959-1umj32.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/309655/original/file-20200113-103959-1umj32.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">À combien peut-on évaluer la valeur de ce sourire ?</span>
<span class="attribution"><a class="source" href="https://image.shutterstock.com/image-photo/woman-green-apron-cashier-supermarket-600w-1507765622.jpg">Robert Kneschke/Shutterstock</a></span>
</figcaption>
</figure>
<p>Cependant, estimer la valeur d’un tel sourire lorsque nous devons attendre en ligne pendant 20 minutes est un enjeu complexe. La valeur des interactions humaines, des compétences nécessaires pour la résolution de problèmes, de l’empathie et des conversations, sont en effet difficiles à estimer. Pire, en tant qu’êtres humains, nous avons du mal à évaluer combien nous paierions pour quelque chose, jusqu’à ce que nous ne l’ayons pas.</p>
<p>Par conséquent, la réponse à l’économie des services doit être trouvée non seulement dans le coût qu’un être humain a pour une organisation, mais dans la valeur réelle que les humains peuvent créer, dans des endroits où les ordinateurs (ou l’automatisation) sont susceptibles de tomber en panne.</p>
<p>Prenons l’histoire de l’hôtel des robots qu’a fait <a href="https://www.theverge.com/2019/1/15/18184198/japans-robot-hotel-lay-off-work-for-humans">faillite</a> au Japon. La raison pour laquelle cet hôtel a échoué est que les ordinateurs n’étaient pas capables de fournir de la valeur dans des endroits qui étaient fondamentaux pour les voyageurs. Par exemple, le concierge automatisé a toujours fourni les mêmes recommandations qu’il était « programmé » à donner tels que les meilleurs attractions et restaurants. Dès que des individus « moins conventionnels » ou pas « paramétrés » demandaient des recommandations, les réponses n’étaient pas de tout adaptées à ses besoins.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1103068973078364160"}"></div></p>
<p>Alors faut-il automatiser ou ne pas automatiser ? La réponse à cette question nous est facilitée par le biais des <a href="http://eprints.lse.ac.uk/68135/1/Willcocks_New%20approach_2016.pdf">nouvelles recherches</a> en innovation de services</p>
<p>Afin de pouvoir déterminer l’intérêt à automatiser (ou pas), nous devons savoir si une telle automatisation apporte de la valeur ajoutée aux consommateurs, et aussi si elle incite les clients à augmenter leur volonté de payer pour les services reçus.</p>
<h2>Une valeur mal perçue par le consommateur</h2>
<p>Actuellement, la valeur ajoutée du service est difficile à percevoir pour les clients. C’est ce qui les conduit à devenir leurs propres fournisseurs de services, en effectuant notamment gratuitement le travail de la caissière face à une caisse automatique. Certes, il peut y avoir des gains de temps lorsque le client se trouve dans un contexte qu’il connaît et que tout fonctionne. Mais lorsqu’un problème survient, ce service que le client assure pour lui-même devient difficile, voire pénible.</p>
<p>C’est à ce moment qu’un caissier ou tout autre emploi de service doit être mis en place. Les êtres humains peuvent apporter des solutions adaptées aux humains. La technologie est loin d’atteindre l’agilité nécessaire pour mieux émuler le comportement humain, et la recherche a montré que, même si c’était le cas, nous choisirions encore plusieurs fois <a href="https://www.mckinsey.com/business-functions/mckinsey-digital/our-insights/where-machines-could-replace-humans-and-where-they-cant-yet">l’humain</a> plutôt que la machine.</p>
<figure class="align-left ">
<img alt="" src="https://images.theconversation.com/files/309689/original/file-20200113-103979-190jx7d.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/309689/original/file-20200113-103979-190jx7d.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=900&fit=crop&dpr=1 600w, https://images.theconversation.com/files/309689/original/file-20200113-103979-190jx7d.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=900&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/309689/original/file-20200113-103979-190jx7d.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=900&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/309689/original/file-20200113-103979-190jx7d.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1131&fit=crop&dpr=1 754w, https://images.theconversation.com/files/309689/original/file-20200113-103979-190jx7d.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1131&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/309689/original/file-20200113-103979-190jx7d.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1131&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">La généralisation de ce type de robot caissier ne semble pas plausible dans l’immédiat.</span>
<span class="attribution"><a class="source" href="https://image.shutterstock.com/image-photo/saintpetersburg-russia-25-march-2019-600w-1351068773.jpg">Eva Kerrigan/Shutterstock</a></span>
</figcaption>
</figure>
<p>En ce sens, la nouvelle génération de prestataires de services doit être celle qui est la mieux placée que jamais pour fournir des solutions, elle doit être multidisciplinaire, en contact actif avec le client et avoir accès à des outils pour innover.</p>
<p>La nouvelle économie de services n’est pas celle qui effectue des tâches répétitives sur une ligne de production, mais celle qui produit des solutions sur mesure dans un environnement flexible. L’innovation de service est l’art de créer des expériences qui s’adaptent automatiquement aux utilisateurs, peuvent être modelées au fil du temps et peuvent augmenter la valeur.</p>
<p>Pensez à nouveau à la caissière. Elle sera d’une aide infinie si elle a perçu un problème commun avec le stockage d’un produit (les clients se plaignent souvent de ne pas le trouver), elle peut percevoir le type de client qui achète (familles, personnes seules) et elle peut accompagner la conception d’un meilleur espace pour le stockage, l’entretien ou le paiement (car elle observe et gère ces interactions).</p>
<p>L’intelligence artificielle n’est pas encore en mesure de comprendre mieux qu’un être humain, le choix de vos mots, la syntaxe que vous avez utilisée, l’intonation de votre voix pour exprimer vos besoins, vos inquiétudes, votre soulagement, votre satisfaction. Pour l’heure, rien ne peut mieux se mettre au diapason d’un être humain qu’un autre être humain. Et nous avons de plus en plus besoin de cette mise au diapason car les assistants numériques nous donnent l’illusion que nous pouvons tout résoudre sur le champ et de cette illusion nous avons fait un droit, un point de jugement, une condition de notre fidélité.</p>
<p>Donc, si votre entreprise pense à l’automatisation, réfléchissez également à la façon dont vous pouvez tirer parti de la réduction du travail que certains travailleurs auront. Les entreprises doivent relever le défi de la création de valeur, au lieu de réduire les coûts. C’est le vrai visage productif de l’innovation de service.</p>
<hr>
<p><em>Cet article a été co-rédigé par Stéphane Compain-Tissier, directeur adjoint d’un hôtel.</em></p><img src="https://counter.theconversation.com/content/129799/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Fernanda Arreola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>La technologie n’est pas encore prête à produire le niveau de service que peut assurer un humain, même si le consommateur ne mesure pas la valeur ajoutée des tâches accomplies.Fernanda Arreola, Professor of Entrepreneurship & Innovation @ EMLV, Pôle Léonard de VinciLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1260882019-10-30T15:43:56Z2019-10-30T15:43:56Z« Terminator », l’IA et le travail : l'avenir sera ce que nous en ferons<figure><img src="https://images.theconversation.com/files/299524/original/file-20191030-17908-5ksj8i.png?ixlib=rb-1.1.0&rect=26%2C2%2C676%2C315&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Un détail de l'affiche du dernier Terminator. </span> <span class="attribution"><span class="source">Allociné</span></span></figcaption></figure><p>Si la sortie d’un nouvel opus de <a href="https://www.imdb.com/title/tt6450804/"><em>Terminator</em></a> n’est plus un événement en soi, il est une dimension qu’on ne saurait renier à la franchise cinématographique de James Cameron : elle a toujours su dépeindre avec un certain brio les interactions hommes-machines en extrapolant les craintes – parfois fantasmées – que nos créations métalliques, et désormais algorithmiques, suscitent chez nous. Pourraient-elles <a href="https://lejournal.cnrs.fr/articles/a-lusine-au-bureau-tous-remplaces-par-des-robots">nous remplacer</a>, voire nous annihiler ? Ce n’est pas un hasard si la saga a acquis ses lettres de noblesse à une époque où les chaînes de montage des industries occidentales connaissaient une <a href="https://www.franceculture.fr/emissions/plan-large/une-petite-histoire-des-robots-au-cinema">vague de robotisation</a> sans précédent et où les inquiétudes autour d’une intelligence artificielle à même de nous supplanter allaient crescendo.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/XU-QNqEIt5I?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<h2>Humaine augmentée</h2>
<p>Comme avaient su le faire les deux premiers épisodes de la saga en leur temps, la nouvelle itération de <em>Terminator</em> surfe sur cette mouvance on ne pleut plus actuelle. Elle a su déplacer géographiquement le problème de la robotisation des taches productives <a href="https://www.latribune.fr/entreprises-finance/industrie/industrie-la-robotisation-avance-a-grand-pas-dans-le-monde-780261.html">dans les pays émergents</a>, et présente toujours une vision de l’avenir dystopique où les humains lutteraient pour leur survie dans un monde régi par une IA militaire qui aurait fini par se retourner contre ses créateurs. Mais, reprenant une idée bien mal exploitée de <a href="https://www.warnerbros.com/movies/terminator-salvation/"><em>Terminator Renaissance</em></a>, ce nouvel opus va plus loin en mettant en scène le personnage de Grace (interprété par Mackenzie Davis), une « Humaine augmentée » par la technologie, envoyée depuis le futur par la résistance pour protéger dans le présent celle qui deviendra leur leader. Impossible de ne pas y voir un clin d’œil appuyé aux <a href="https://www.lefigaro.fr/secteur/high-tech/2017/07/26/32001-20170726ARTFIG00186-elon-musk-et-mark-zuckerberg-s-opposent-sur-l-intelligence-artificielle.php">débats qui animent actuellement</a> la communauté civile et scientifique autour du <a href="https://theconversation.com/frankenstein-et-le-transhumanisme-71200">transhumanisme et des apports de l’Intelligence Artificielle (IA)</a> entre ses plus fervents thuriféraires et ses plus ardents détracteurs.</p>
<h2>L’IA, entre attraction et répulsion</h2>
<p>Ces débats sont légitimes. En tant qu’évolution naturelle de l’économie de la donnée qui a déjà transformé en profondeur les marchés et les usages, l’IA va largement façonner nos économies durant les prochaines décennies. Voilà une technologie apprenante qui est d’ores et déjà capable de faire mieux que l’Humain dans bien des <a href="https://www.lemonde.fr/pixels/article/2017/05/27/apres-avoir-terrasse-le-numero-1-mondial-du-jeu-de-go-alphago-prend-sa-retraite_5134882_4408996.html">domaines complexes</a> et qui porte des promesses applicatives colossales, par exemple dans le champ de la <a href="https://www.youtube.com/watch?v=ten22DFl-Po">santé</a>, de l’énergie ou de la <a href="https://moderndiplomacy.eu/2018/04/19/the-artificial-intelligence-race-u-s-china-and-russia/">(cyber)sécurité</a>. Le <a href="http://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html">rapport Villani</a> sur la question montre bien que les enjeux économiques et géostratégiques sont potentiellement colossaux. D’ailleurs, les États et entreprises ne s’y trompent pas : chaque jour apporte son lot de <a href="http://www.enseignementsup-recherche.gouv.fr/cid136649/la-strategie-nationale-de-recherche-en-intelligence-artificielle.html">nouveaux plans stratégiques</a> et autres <a href="https://www.usinenouvelle.com/editorial/bruxelles-pousse-l-europe-de-l-intelligence-artificielle.N781404">projets ambitieux</a> autour de l’IA.</p>
<p>Ses détracteurs, quant à eux, appellent à une régulation stricte. Ils redoutent en effet que le développement de l’IA n’ouvre le champ à de graves dérives éthiques et puisse aboutir à un futur dystopique dans lequel l’Homme serait <a href="https://www.france-politique.info/partis-politiques/en-marche/2018/11/29/lintelligence-artificielle-revee-par-la-silicon-valley-cherche-a-nous-aliener/">aliéné</a> et mis <a href="https://theconversation.com/50-years-old-2001-a-space-odyssey-still-offers-insight-about-the-future-102303">au service de la machine</a>. Et tandis que l’Unesco appelle à une <a href="https://fr.unesco.org/courier/2018-3/ethique-recherche-ia-echelle-mondiale">éthique internationale de l’IA</a>, le <a href="https://theconversation.com/congress-takes-first-steps-toward-regulating-artificial-intelligence-104373">Congrès US</a> cherche à mieux encadrer son développement.</p>
<p>Dans le domaine du travail, ce sont les spectres de la <a href="https://www.franceculture.fr/emissions/les-idees-claires/lintelligence-artificielle-va-t-elle-detruire-des-emplois">destruction d’emplois et du déclassement</a> qui planent. Or, s’il est indéniable que l’IA va transformer le monde du travail, il nous semble nécessaire de démêler ce qui relève du fantasme de ce qui nous guette à plus ou moins brève échéance.</p>
<h2>L’IA et la destruction créatrice</h2>
<p>Commençons déjà à rappeler une évidence à propos du progrès technique : la technologie est créée par les scientifiques pour que l’on puisse se passer d’eux. Concrètement, cela implique que toute innovation technologique a tout à la fois un impact économique (les applications dérivées de la technologie et les gains de productivité qu’elles engendrent) et un impact social (la destruction ou la transformation des métiers rendus moins nécessaires du fait de l’innovation). Vouloir aller à l’encontre de ce <a href="https://www.youtube.com/watch?v=j_IhR_8exow">mouvement perpétuel de créations/destructions</a> revient à entraver l’innovation, voire à la renier.</p>
<p>L’innovation étant un processus des plus incertains, il serait hasardeux d’estimer l’ampleur de la destruction d’emplois à moyen terme imputable à l’IA. Les tentatives en ce sens ont abouti à des écarts particulièrement déroutants, de <a href="https://www.oxfordmartin.ox.ac.uk/publications/view/1314">47 % des emplois US menacés</a> à terme selon des chercheurs d’Oxford à… <a href="https://www.lemonde.fr/economie/article/2016/05/20/pour-l-ocde-9-des-emplois-sont-menaces-par-les-robots_4923165_3234.html">9 % pour les pays de l’OCDE selon une autre étude</a>. Mieux vaut alors s’attacher à l’essentiel : si l’extinction des compétences utiles (et des métiers afférents) est un cycle naturel, alors l’IA n’est pas plus à blâmer que n’importe quelle autre technologie passée ou à venir. Ce n’est pas l’IA qui a causé la disparition progressive des guichetiers et des agents de caisse dans les hypermarchés. Et l’IA n’aura que peu à voir avec la destruction massive d’emplois à venir dans la <a href="https://www.capital.fr/economie-politique/bercy-au-soutien-de-la-filiere-diesel-1326625">filière diesel</a>.</p>
<h2>De l’IA et des Hommes</h2>
<p>L’IA, en revanche, se nourrit de toutes les données disponibles en abondance dans une société hyper connectée. Elle s’appuie également sur les progrès rapides en matière de <a href="http://www.eskimoz.fr/machine-learning/">deep et de machine learning</a> (apprentissage automatique) et de capacités de calcul (et ce, même si la <a href="https://www.zdnet.fr/actualites/la-loi-de-moore-est-morte-encore-une-fois-et-pour-de-bon-39879081.htm">loi de Moore apparaît plus controversée</a> que jamais). Dire que l’IA bénéficie d’un terreau favorable pour se développer à marche accélérée relève donc de l’euphémisme.</p>
<p>Il faut donc se préparer à ce que les emplois les plus exposés à l’automatisation subissent de plein fouet son inexorable développement. En extrapolant, tous les emplois reposant sur des choix et actions prédéfinis, des séquences répétitives et ne laissant que peu de place à l’initiative sont déjà transformés, voire en cours de remplacement, par des <a href="https://theconversation.com/could-a-robot-do-your-job-short-answer-yes-39569">technologies existantes</a>. L’IA, dans sa version « faible » (<em>narrow AI</em>) étendra probablement le spectre à certaines tâches intellectuelles de faible valeur ajoutée… mais ne <a href="https://www.xerficanal.com/economie/emission/Olivier-Passet-Intelligence-artificielle-l-impact-economique-reel_3746457.html">devrait pas supplanter l’intelligence humaine</a> avant de nombreuses années.</p>
<p>En effet, contrairement à sa version « forte » (<em>full AI</em>) qui <a href="https://theconversation.com/comment-lintelligence-artificielle-se-la-raconte-depuis-2001-lodyssee-de-lespace-94214">alimente bien des fantasmes en matière de créativité et d’autonomie</a>, l’IA que nous connaissons restera longtemps encore limitée dans ses applications : reconnaissances multiples (de langages, de formes tumorales, de visages…), résolution rationnelle de problèmes plus ou moins complexes (<em>robo-advisoring</em> dans la banque et l’assurance, transports autonomes…), et prédictions (de maladies, d’intentions d’achats…). Il est évident que dans bien des domaines l’IA fait déjà mieux que l’Humain : elle permet des gains d’efficacité substantiels, et rend les systèmes plus efficaces. Mais, pour l’heure, l’IA ne peut faire que ce pour quoi elle a été programmée. Une IA spécialisée dans la conduite autonome fera un bien piètre joueur d’échecs. Et une IA entraînée à jouer au go aura bien des difficultés à opérer une reconnaissance faciale. En un mot, si les IA actuelles sont déjà capables de faire bien mieux que les humains dans leurs domaines applicatifs, elles se révèlent bien incapable de faire ce que le cerveau humain parvient à réaliser naturellement : traiter une multitude de tâches diverses avec efficacité et une grande flexibilité adaptative.</p>
<p>Plus encore, on est encore loin de l’IA autonome et apprenante, capable de prendre des décisions en lieu et place d’êtres humains, ces êtres dotés de sensibilité, capables de s’adapter à leur environnement, d’interagir avec d’autres intelligences complexes et imprévisibles, de faire preuve d’empathie, <a href="https://theconversation.com/yes-ai-may-take-some-jobs-but-it-could-also-mean-more-men-doing-care-work-102488">voire même de substituer la morale à l’efficacité</a>. À ce propos, il est d’ailleurs particulièrement intéressant de noter que les emplois de commerçant, de <a href="https://theconversation.com/technology-hasnt-killed-public-libraries-its-inspired-them-to-transform-and-stay-relevant-100900">libraire</a>, ou de barman, n’ont pas disparu avec les technologies susceptibles de les remplacer (liseuses électroniques, e-stores, machines expresso). Tous se sont transformés pour faire ce que la machine ne saura faire de sitôt : créer l’<a href="https://www.ericklinenberg.com/books">expérience sociale</a> attendue. L’hôtelier japonais qui comptait 243 robots de service l’<a href="https://www.liberation.fr/planete/2019/01/16/au-japon-l-hotel-gere-par-des-robots-fait-machine-arriere_1703373">a récemment appris à ses dépens</a> : faisabilité technique ne vaut pas automatiquement acceptabilité sociale et donc, devenir commercial.</p>
<h2>Ce qui ne peut être évité, il faut l’embrasser</h2>
<p>Non, tous les emplois ne seront donc pas affectés par l’IA, notamment sur le moyen terme. Non pas tant que les effets <a href="https://fr.wikipedia.org/wiki/Hyst%C3%A9r%C3%A9sis">d’hystérèse</a> ou la réglementation ralentiront son adoption par les organisations et les individus, mais tout simplement parce que la technologie sera confrontée longtemps encore à des limites difficilement dépassables. Non seulement elle ne sera pas capable de remplacer les emplois de haut niveau avant de nombreuses années (<a href="https://theconversation.com/ai-doctors-and-engineers-are-coming-but-they-wont-be-stealing-high-skill-jobs-101701">par exemple, dans la santé</a>), mais en outre elle restera longtemps limitée à l’<a href="https://theconversation.com/artificial-intelligence-will-make-you-smarter-101296">augmentation du potentiel humain</a>, pour créer des « humains augmentés par la technologie ». En creux, cela invite les instituts d’enseignement supérieur à la mise en place de programmes de formation à même de préparer les individus à travailler en symbiose avec l’IA.</p>
<p>Car rien ne saurait plus entraver son développement. Sa pénétration progressive dans les foyers, les organisations, les SI et les usages devrait d’abord être envisagée comme le moyen de lutter contre des inefficiences manifestes résultant de la simple <a href="https://theconversation.com/que-doit-on-craindre-davantage-lintelligence-artificielle-ou-la-betise-humaine-89471">« bêtise humaine »</a>. Développée par l’Homme et apprenant de l’Homme, l’IA sera ce que nous en ferons. Plutôt que de la blâmer pour ce qu’elle n’est pas (encore), ne devrions-nous pas œuvrer collectivement à ce qu’elle ne <a href="https://www.youtube.com/watch?v=Nj2FFjQTsKc">réplique pas nos propres inefficiences</a> ? Comme une superbe rémanence de la conception de Sarah et John Connor dans Terminator 2 : « no fate, but what we make » <a href="https://www.youtube.com/watch?v=J92yhAjAeJY">Pas de futur écrit, mais ce que nous en ferons</a>.</p><img src="https://counter.theconversation.com/content/126088/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Julien Pillot est coordinateur du think tank trans-partisan "Le Jour d'Après" qui entend participer aux débats sur les réformes structurelles nécessaires à la modernisation et l'efficacité de notre modèle social, économique et institutionnel, en dépassant les clivages partisans.</span></em></p>Certes, l'IA va largement façonner nos économies durant les prochaines décennies. Mais il convient de démêler ce qui relève du fantasme de ce qui nous guette à plus ou moins brève échéance.Julien Pillot, Enseignant-Chercheur en Economie et Stratégie (Inseec U.) / Pr. et Chercheur associé (U. Paris Saclay), INSEEC Grande ÉcoleLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1017852018-11-28T20:40:41Z2018-11-28T20:40:41ZPourquoi l’intelligence artificielle risque de continuer à tuer<figure><img src="https://images.theconversation.com/files/247569/original/file-20181127-76764-2ba7vy.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="https://pixabay.com/fr/intelligence-artificielle-cerveau-3683774/">Geralt/Pixabay</a></span></figcaption></figure><p>Des neurones artificiels pour des machines profondément intelligentes. C’est la nouvelle révolution de l’IA offerte, depuis 2012, par <a href="https://fr.wikipedia.org/wiki/Geoffrey_Hinton">Geoffrey Hinton</a> et son équipe. Cet expert en sciences cognitives de l’université de Toronto, et chercheur chez <a href="https://fr.wikipedia.org/wiki/Google_Brain">Google Brain</a> a annoncé cette année-là des résultats exceptionnels d’un réseau de neurones artificiels à couches profondes (<em>Deep Neural Network</em>, DNN) dans une tâche de classification d’images.</p>
<p>Suite à ces performances impressionnantes dans ce domaine prometteur et passionnant qu’est l’intelligence artificielle (IA), des investissements massifs ont été réalisés par les universités mais aussi par les plus grands groupes internationaux pour développer ce nouveau potentiel. Néanmoins, malgré l’efficacité impressionnante des DNN dans de nombreux domaines d’applications (reconnaissance visuelle ou vocale, traduction, imagerie médicale, etc.) des questions se posent sur les limites du <a href="https://theconversation.com/deep-learning-des-reseaux-de-neurones-pour-traiter-linformation-76055">deep learning</a> dans d’autres domaines tels que le pilotage de véhicules autonomes par exemple.</p>
<p>Pour comprendre les limites de l’IA actuelle, il faut comprendre d’où viennent les DNN et surtout de quelles zones du cerveau humain ils en constituent l’analogue formel, ce qui est souvent très mal connu dans l’ingénierie industrielle mais aussi dans certains centres de recherche. Depuis cette nouvelle révolution, ils utilisent le Deep learning comme une « baguette magique » sans en connaître ni l’origine, ni les limites. Sur ce point, le titre du rapport Villani – « Donner un sens à l’intelligence artificielle » – est révélateur de ce malaise profond.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/ILsA4nyG7I0?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Explication des DDN.</span></figcaption>
</figure>
<h2>D’où vient le <em>deep learning</em> ?</h2>
<p>L’origine des réseaux de neurones artificiels remonte aux années 1940 et aux découvertes fondatrices en neurosciences et en psychologie de McCulloch et Pitts (<a href="https://fr.wikipedia.org/wiki/Neurone_formel">premier modèle mathématique d’un neurone</a>) et de <a href="https://fr.wikipedia.org/wiki/Donald_Hebb">Donald Hebb</a> (formalisation des règles d’apprentissage synaptique). L’objectif de ces chercheurs était de comprendre comment les neurones, briques élémentaires du cerveau, pouvaient générer la psyché.</p>
<p>Ce travail séminal a conduit à la conception en 1958 du premier réseau de neurones artificiels par le psychologue américain Frank Rosenblatt : le <a href="https://fr.wikipedia.org/wiki/Perceptron">Perceptron</a>. Ces premières recherches ont évidemment été suivies d’évolutions importantes, par exemple sur la base des travaux en neurosciences de <a href="https://en.wikipedia.org/wiki/Hodgkin%E2%80%93Huxley_model">Hodgkin et Huxley</a> qui spécifient la dynamique temporelle de l’intégration neuronale ou les travaux en informatique et en mathématiques de <a href="https://en.wikipedia.org/wiki/Bernard_Widrow">Bernard Widrow</a> et <a href="https://en.m.wikipedia.org/wiki/Marcian_Hoff">Ted Hoff</a> qui proposèrent l’utilisation d’algorithmes de descente de gradient plus efficaces pour la modification des connexions synaptiques des réseaux de neurones.</p>
<p>Ces optimisations mathématiques ont ensuite été approfondies dans les années 1980 par les recherches en sciences cognitives de David Rumelhart, Geoffrey Hinton, et James McClelland, parmi les membres du <a href="https://en.wikipedia.org/wiki/Connectionism">Parallel Distributed Processing Research Group</a> qui ont permis l’optimisation de la modification des connexions synaptiques dans des couches profondes de neurones et l’avènement du <a href="https://fr.wikipedia.org/wiki/Perceptron_multicouche">perceptron multi-couches</a> (ou multi-layer perceptron, MLP). Les DNN, développés par des auteurs tels que Geoffrey Hinton, Yann LeCun ou Yoshua Bengio, sont les descendants directs du MLP.</p>
<h2>Existe-t-il un lien entre Deep Learning et cerveau ?</h2>
<p>Malgré l’origine interdisciplinaire et inspirée du fonctionnement du cerveau des DNN, on peut se demander dans quelle mesure ces algorithmes simulent encore quelque chose du cerveau humain. Les DNN ont été conçus pour réaliser des tâches de reconnaissance et classification d’images par exemple. À cette fin, les DNN utilisent différentes couches de <a href="https://towardsdatascience.com/types-of-convolutions-in-deep-learning-717013397f4d"><em>convolution</em></a> et de <a href="https://www.actuia.com/contribution/thibault-neveu/les-reseaux-de-neurones-convolutifs/"><em>pooling</em></a> avant la reconnaissance de l’image.</p>
<p>Concernant les couches de convolutions, les travaux de Hubel et Wiesel dans les années 1960 ou de Jones et Palmer dans les années 1980 montrent la possibilité de simuler par cette méthode la probabilité de réponse de neurones du cortex visuel primaire. De nombreuses recherches en sciences cognitives, <a href="https://www.deboecksuperieur.com/auteur/martial-mermillod">dont nos propres travaux</a>, utilisent ainsi ce processus pour simuler la réponse de ces neurones de façon neuro-inspirée.</p>
<p>Concernant le processus de <em>pooling</em>, différents travaux réalisés depuis 30 ans en neurosciences et en psychologie cognitive montrent comment le cerveau réalise ce processus d’abstraction au niveau de la voie occipito-temporale. Ainsi, les travaux de Rufin Vogels ou de Keiji Tanaka montrent comment cette voie permet l’identification ou la classification visuelle indépendamment des propriétés de surface de l’image comme la texture, la couleur, la distance ou la position des objets dans l’image. Ces aires cérébrales sont donc sensibles aux mêmes informations que les couches perceptives apprises par un DNN lors du processus de <em>pooling</em>.</p>
<p>Plus surprenant encore, les recherches de <a href="https://www2.le.ac.uk/centres/csn/people-1/Rodrigo">Rodrigo Quian Quiroga</a> et de ses collaborateurs ont montré l’existence de neurones spécifiques à des concepts ou à des identités (par exemple des neurones « Jennifer Aniston », ou « Tour de Pise »). Ils s’activent lors d’un accès direct au concept tel que le nom écrit « Jennifer Aniston ». Encore plus passionnant au regard de l’avenir de l’IA, les travaux de Quiroga montrent que cette activité neuronale est corrélée avec la perception <em>consciente</em> d’un stimulus de l’environnement.</p>
<p>En résumé, bien que simplifiés et mathématiquement optimisés par rapport à un cerveau biologique, les DNN reproduisent les processus de convolution/abstraction de cette zone très spécifique du cortex. Des travaux de neurosciences cognitives récents montrent ainsi, par implants d’électrodes cérébrales ou par IRM fonctionnel, la similitude de fonctionnement entre DNN et cette voie occipito-temporale.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/247571/original/file-20181127-76740-yma8t1.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/247571/original/file-20181127-76740-yma8t1.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=276&fit=crop&dpr=1 600w, https://images.theconversation.com/files/247571/original/file-20181127-76740-yma8t1.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=276&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/247571/original/file-20181127-76740-yma8t1.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=276&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/247571/original/file-20181127-76740-yma8t1.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=347&fit=crop&dpr=1 754w, https://images.theconversation.com/files/247571/original/file-20181127-76740-yma8t1.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=347&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/247571/original/file-20181127-76740-yma8t1.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=347&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Exemple de recherches montrant l’équivalence de fonctionnement entre Deep Neural Networks et voie occipito-temporale du cortex visuel.</span>
<span class="attribution"><span class="source">Kuzovkin, Vicente, Petton, Lachaux, Baciu, Kahane et Aru, 2018.</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<h2>Une IA plus fiable parce qu’inspirée du cerveau ?</h2>
<p>Les recherches fondamentales interdisciplinaires sur les DNN ont permis d’aboutir à des applications impressionnantes dans de nombreux domaines : reconnaissance et classification visuelle, reconnaissance vocale, traduction, jeux de go, composition musicale, etc. Malheureusement, par méconnaissance des travaux en sciences cognitives qui en sont à l’origine, les DNN restent actuellement trop souvent utilisés comme une « baguette magique » permettant de résoudre tous et n’importe quels problèmes.</p>
<p>Dans l’exemple des voitures autonomes, l’utilisation aveugle de DNN couplés directement à des systèmes de contrôle des actions du véhicule serait très risquée : ce serait équivalent à demander à un chauffeur de taxi qui a perdu plus de 80 % de son cerveau suite à un accident (et ne conservant que cette voie occipito-temporale) de conduire une voiture. Il n’est tout simplement pas possible de demander à ces systèmes plus que ce pour quoi ils ont été conçus à l’origine au risque de produire des accidents dramatiques.</p>
<p>Les aires cérébrales humaines impliquées dans l’anticipation (figure ci-dessous), l’orientation spatiale ou les fonctions sensori-motrices impliquées dans la conduite dans un environnement complexe sont très différentes des processus neuronaux à l’œuvre au niveau de la voie occipito-temporale. Ces processus neuronaux impliqués dans la compréhension et la planification de l’action sont réalisés par le cortex occipito-pariétal sur la base de processus neuronaux très différents de la voie occipito-temporale ! Ce sont des neurones très différents et sensibles par exemple à la distance, la position ou la vitesse. Autant de paramètres qui déterminent la manière dont nous pouvons agir sur l’environnement.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/247574/original/file-20181127-76761-x74d9e.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/247574/original/file-20181127-76761-x74d9e.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=378&fit=crop&dpr=1 600w, https://images.theconversation.com/files/247574/original/file-20181127-76761-x74d9e.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=378&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/247574/original/file-20181127-76761-x74d9e.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=378&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/247574/original/file-20181127-76761-x74d9e.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=475&fit=crop&dpr=1 754w, https://images.theconversation.com/files/247574/original/file-20181127-76761-x74d9e.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=475&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/247574/original/file-20181127-76761-x74d9e.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=475&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Il est possible d’améliorer les capacités d’anticipation d’un système neuromorphique en simulant les boucles récurrentes d’aires associatives vers les aires perceptives à l’œuvre dans le cerveau humain.</span>
<span class="attribution"><span class="source">Mermillod, Bourrier, David, Kauffmann, Chauvin, Guyader, Dutheil et Peyrin, 2018.</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>L’utilisation aveugle de DNN (ou d’autres systèmes artificiels) sans retour, ni comparaison à la neuro-inspiration pour des fonctions cognitives différentes n’est pas seulement limité en performance, c’est tout simplement dangereux. Nous ne prétendons pas que la neuro-inspiration est la seule voie efficace pour une IA plus sûre. Néanmoins, au regard du passé tumultueux de l’IA, et en particulier au regard de l’efficacité maintenant démontrée de systèmes neuro-inspirés comme les DNN comparativement aux méthodes d’ingénierie antérieures utilisées (pour la reconnaissance visuelle par exemple), il nous semble primordial de comprendre comment le cerveau réalise d’autres fonctions cognitives (contrôle moteur, intégration multi-sensorielle, etc.) afin de les comparer aux techniques d’ingénierie actuelles réalisant ces fonctions dans l’optique de produire des IA plus sûres et plus efficaces.</p>
<p>Si la recherche en IA se faisait en plus étroite collaboration avec les sciences cognitives, cela permettrait :</p>
<ul>
<li><p>de comprendre et de simuler les zones du cerveau qui ne sont pas encore appréhendées par le Deep Learning.</p></li>
<li><p>de proposer des IA plus fiables et plus performantes en comparaison avec les performances humaines.</p></li>
</ul>
<p>Ce défi passe par un travail interdisciplinaire qui nécessite bien sûr des mathématiques et de l’informatique mais aussi des neurosciences, de la psychologie cognitive, sans oublier des recherches en électronique et en physique pour développer les nouveaux processeurs neuronaux en cours de déploiement. Il s’agit de dépasser enfin les limites des machines de Turing-Von Neumann qui a dominé l’industrie électronique et l’informatique depuis la seconde guerre mondiale.</p><img src="https://counter.theconversation.com/content/101785/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Martial Mermillod a reçu des financements de l'Institut Universitaire de France, du CNRS et du Cross-Disciplinary Project NeuroCoG (IDEX Univ. Grenoble Alpes, programme "Investissements d’avenir" ANR-15-IDEX-02). </span></em></p>Attention à l’utilisation aveugle de l’intelligence artificielle : utilisée comme une « baguette magique », par exemple dans une voiture autonome, elle présente des risques.Martial Mermillod, Chercheur Laboratoire de Psychologie et NeuroCognition, Université Grenoble Alpes (UGA)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1054012018-10-22T07:49:44Z2018-10-22T07:49:44ZAlgorithmes : à la recherche de l’universalité perdue<figure><img src="https://images.theconversation.com/files/241585/original/file-20181022-105776-7q1ka1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Machine de Turing en Lego</span> <span class="attribution"><span class="source">Projet Rubens, ENS Lyon</span>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p><em>Rachid Guerraoui est professeur à l’École Polytechnique Fédérale de Lausanne où il dirige le Laboratoire de calcul distribué. Il est le tout nouveau titulaire de la Chaire « Informatique et sciences numériques » du Collège de France où il présente un cours intitulé « Algorithmes : à la recherche de l’universalité perdue » (leçon inaugurale le 24 octobre 2018). L’informatique est efficace et robuste parce qu’on sait « répartir » un calcul entre plein de processeurs. Rachid Guerraoui est un des meilleurs spécialistes mondiaux en informatique répartie, le sujet de son cours. Rachid a aussi participé aux lancements des plates-formes d’enseignement en ligne Wandida et Zetabytes, et il écrit régulièrement pour Binaire. Cet article est publié en collaboration avec le <a href="http://binaire.blog.lemonde.fr/">blog Binaire</a>.</em></p>
<hr>
<p>Nous sommes en 2018. Les humains sont contrôlés par des algorithmes. Tous les humains ? Tous. Aucun village d’irréductibles ne résiste encore et toujours aux algorithmes ? Aucun.</p>
<p>Est-ce grave ? Question de perspective. Les algorithmes ne boivent pas, ne s’énervent pas et s’endorment pas. Pourquoi ne pas les laisser conduire nos voitures ? Nous accusons la voiture d’être le moyen de transport le plus dangereux quand nous devrions plutôt accuser le chauffard, lui qui boit, s’énerve ou s’endort. Et si nous avions pu envoyer des algorithmes pilotant des robots au fond d’une mine, nous aurions raté de grands livres, certes, mais nous aurions sauvé nombre de vies humaines. À ce propos justement, des algorithmes sont souvent plus efficaces que les médecins lorsqu’il s’agit de détecter certaines maladies à partir d’une radiographie.</p>
<p>Les algorithmes sont efficaces car ils s’exécutent sur des systèmes informatiques extrêmement robustes et rapides. La robustesse vient de la répartition globale du système informatique sur plusieurs sites, parfois disposés aux quatre coins du monde et tolérant donc la panne de certains de ces sites. La rapidité vient de la répartition locale du calcul car, au cœur même de chaque ordinateur, cohabitent aujourd’hui un grand nombre de processeurs.</p>
<p>Faire transcrire par des informaticiens chevronnés les savoirs d’une équipe médicale dans un algorithme ne peut être intrinsèquement mauvais, puisque l’on décuplera la force des médecins. Vive donc les algorithmes et nous avec !</p>
<h2>Les bêtises des algorithmes</h2>
<p>Nous pourrions nous arrêter sur cette note positive. Seulement voilà, les algorithmes peuvent aussi parfois dire n’importe quoi. Nous le constatons régulièrement. Ils peuvent même raconter des bêtises énormes. Et certaines bêtises peuvent être dangereuses car amplifiées par la puissance du système informatique exécutant l’algorithme.</p>
<p>Le grand danger n’est pas l’intelligence artificielle des algorithmes, mais leur bêtise naturelle. Ce danger est concret, réel, palpable. Il n’est pas du registre de la science-fiction comme la prétendue super intelligence des algorithmes, trop souvent médiatisée. Plus nous dépendons des algorithmes, plus nous sommes vulnérables à leur bêtise.</p>
<p>Mais ne pouvons-nous rien contre cette bêtise ? Les informaticiens n’ont-ils pas développé, depuis près d’un siècle, des techniques de preuves théoriques et de tests empiriques qui devraient nous permettre de réduire la probabilité de mauvaises surprises ? Oui. Mais ces techniques reposent sur une hypothèse fondamentale : l’universalité de Turing.</p>
<p>En effet, Alan Turing a fait de l’informatique une science en créant un modèle d’ordinateur universel, la <a href="https://fr.wikipedia.org/wiki/Machine_de_Turing">machine de Turing</a>. Tout ce qui peut être calculé par un algorithme le peut par cette machine. Depuis un demi-siècle, les ordinateurs sont construits suivant ce modèle universel. Cela permet, tout en profitant de la puissance d’un ordinateur, de s’affranchir des détails technologiques de son architecture pour apprivoiser les algorithmes. Ces algorithmes peuvent ainsi être conçus et analysés à partir de principes abstraits rigoureux, puis testés concrètement sur n’importe quelle machine universelle donnée, avant d’être déployés sur une autre. Cette universalité nous a permis d’espérer un monde algorithmique sans erreurs.</p>
<p>Malheureusement, cette universalité a été perdue dans une large mesure. Elle a été perdue sans parfois qu’on ne le réalise, lorsque l’on a voulu répartir les systèmes informatiques pour en faire des machines super-robustes et super-efficaces. En cherchant la robustesse et l’efficacité, nous avons perdu l’universalité. Alors qu’une seule machine de Turing permet d’exécuter n’importe quel algorithme, un réseau de machines ne le peut plus.</p>
<p>La perte de l’universalité de Turing implique que l’on ne peut pas déployer sur un réseau de machines, un algorithme conçu à partir de principes abstraits issus de l’algorithmique classique, centralisée, ou testé sur d’autres machines, et s’attendre à ce que l’algorithme fonctionne de la même manière. Les détails technologiques du réseau entrent en jeu : l’abstraction et la rigueur en pâtissent.</p>
<h2>Informatique répartie</h2>
<p>La discipline scientifique qui étudie les algorithmes déployés sur des systèmes informatiques répartis s’appelle l’<a href="https://fr.wikipedia.org/wiki/Algorithmique_r%C3%A9partie">algorithmique répartie</a>. Elle étudie aussi bien les algorithmes déployés sur un ensemble d’ordinateurs géographiquement distants et communiquant par envois de messages, que les algorithmes déployés sur plusieurs processeurs au cœur du même ordinateur. On parle aussi parfois dans ce dernier cas d’algorithmes concurrents car partageant la même mémoire.</p>
<p>L’un des objectifs principaux de l’algorithmique répartie est d’identifier les conditions nécessaires et suffisantes sur les réseaux, grands ou petits, permettant de retrouver l’universalité de Turing. Lorsque ces conditions ne sont pas satisfaites, il s’agît de définir les formes d’universalités restreintes que l’on peut réaliser.</p>
<p>Un résultat fondamental en algorithmique répartie stipule que la perte de l’universalité de Turing est intimement liée à l’impossibilité pour des machines connectées par un réseau asynchrone (dans lequel on ne fait pas d’hypothèse sur les temps de communication) d’atteindre un consensus. Intuitivement, cette impossibilité signifie que lorsque l’on déploie un algorithme sur un réseau de machines, elles ne peuvent pas se mettre d’accord sur l’ordre d’exécution des instructions de l’algorithme. D’autres résultats d’algorithmique répartie, plus positifs, définissent des conditions permettant de contourner l’impossibilité du consensus et d’obtenir une nouvelle forme d’universalité, certes restreinte, mais suffisante pour de nombreuses applications et réseaux.</p>
<p>En informatique répartie, les algorithmes sont constitués, en plus des instructions élémentaires des algorithmes classiques centralisés, d’instructions permettant de faire communiquer plusieurs machines, comme des envois de messages ou des accès à des variables partagées. Ces instructions de communication ont un impact fondamental sur la nature des algorithmes. Leur complexité s’en trouve profondément affectée et de nouvelles métriques sont nécessaires pour mesurer leur efficacité, basées par exemple sur le nombre de messages envoyés en fonction du nombre d’ordinateurs connectés. Ces métriques permettent d’étudier le compromis entre les super pouvoirs de la machine répartie obtenue : robustesse et efficacité. Les algorithmes d’apprentissage sous-jacents à l’intelligence artificielle moderne illustrent ce compromis. Du fait de la grande quantité de données disponible, l’apprentissage est réparti sur plusieurs machines. Une moyenne des analyses obtenues est alors effectuée. Mais une seule machine donnant des valeurs extravagantes conduit à la défaillance du tout.</p>
<figure class="align-left ">
<img alt="" src="https://images.theconversation.com/files/241586/original/file-20181022-105782-1apx7nv.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/241586/original/file-20181022-105782-1apx7nv.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/241586/original/file-20181022-105782-1apx7nv.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/241586/original/file-20181022-105782-1apx7nv.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/241586/original/file-20181022-105782-1apx7nv.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/241586/original/file-20181022-105782-1apx7nv.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/241586/original/file-20181022-105782-1apx7nv.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Groupe de jeunes anguilles.</span>
<span class="attribution"><span class="source">Jens Petersen/Wikipedia</span>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Au-delà des considérations technologiques qui motivent l’étude de l’algorithmique répartie pour mieux appréhender les inventions humaines que sont les ordinateurs et les réseaux, cette étude est tout aussi fondamentale à la compréhension de phénomènes naturels. Lorsque l’on s’intéresse à modéliser la synchronisation du clignotement des lucioles, les mouvements coordonnés d’un banc de poissons, les formes géométriques dessinées par une nuée d’oiseaux, ou le comportement collaboratif d’un réseau de neurones, on retrouve des algorithmes répartis.</p>
<p>L’informatique est désormais fondamentalement répartie sur des réseaux, grands ou petits. Cette répartition décuple la puissance des ordinateurs et les rend souvent plus forts et plus efficaces. Mais elle les rend parfois incontrôlables. Apprivoiser cette informatique passe par l’étude de la discipline scientifique sous-jacente : l’algorithmique répartie. Cette discipline est tout aussi nécessaire à la compréhension de nombreux phénomènes naturels. La leçon inaugurale du cours du Collège de France racontera l’histoire de la quête d’universalité dans le contexte réparti en soulignant quelques résultats clés et quelques problèmes ouverts.</p><img src="https://counter.theconversation.com/content/105401/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Rachid Guerraoui ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>L’informatique est désormais répartie sur des réseaux, grands ou petits. Mais elle les rend parfois incontrôlables. Pour en savoir plus, leçon inaugurale au Collège de France le 24 octobre.Rachid Guerraoui, Professeur à l’École Polytechnique Fédérale de Lausanne, Chaire « Informatique et sciences numériques » du Collège de France, EPFL – École Polytechnique Fédérale de Lausanne – Swiss Federal Institute of Technology in LausanneLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1015582018-08-19T20:31:24Z2018-08-19T20:31:24ZL’interface cerveau-machine : « un dialogue » pour réparer le corps<figure><img src="https://images.theconversation.com/files/232268/original/file-20180816-2915-22qkrf.jpg?ixlib=rb-1.1.0&rect=0%2C399%2C1920%2C1362&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">L'interface cerveau-machine: une avancée considérable pour l'humanité.</span> <span class="attribution"><a class="source" href="https://pixabay.com/en/mechanical-brain-man-machine-2033446/">aytuguluturk/pixabay</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Retrouver la fonction perdue après un accident : tel est le but des interfaces cerveau-machine, que ce soit pour retrouver l’<a href="http://stm.sciencemag.org/content/5/210/210rv2.short">usage de ses jambes</a> ou de ses bras après une lésion de la moelle épinière, pour améliorer la marche chez des malades de la Maladie de Parkinson, etc.</p>
<p>Mais que signifient les mots « interface cerveau-machine » ? C’est littéralement la fusion entre le cerveau et l’électronique avec l’établissement d’un dialogue entre ces entités afin de réparer la perte d’une fonction.</p>
<p>L’acception « interface cerveau-machine » recouvre en fait de nombreuses applications qui n’en sont pas réellement. Cette fusion entre cerveau et électronique implique un dialogue, donc une communication dans les deux sens, du cerveau vers l’électronique et de l’électronique vers le tissu biologique (ici le cerveau ou les organes effecteurs que sont les muscles).</p>
<p>Prenons l’exemple de la marche chez les <a href="http://stm.sciencemag.org/content/7/302/302ra134.short">paraplégiques</a>. Ces personnes sont porteuses d’une lésion accidentelle de la moelle épinière qui interrompt le transfert de l’information du cortex moteur (centre de décision) vers les centres générateurs de mouvements situés dans la moelle épinière en dessous de la lésion.</p>
<p>En théorie donc, le cortex moteur (les cortex impliqués dans le mouvement en fait) est capable de décider de l’exécution de la marche mais rien ne se passe car l’information n’arrive pas aux centres générateurs de mouvements, fonctionnels après la lésion) qui eux vont directement agir sur les muscles effecteurs en coordonnant subtilement leur engagement dans le comportement de marche.</p>
<p>Comment faire pour que l’information passe « par-dessus » la lésion ?</p>
<h2>Un « pont » électronique</h2>
<p>Il faut pour cela créer ce que les spécialistes nomment un pont électronique. Ce travail de recherche translationnelle (du laboratoire à l’hôpital) est coordonné par le Pr. Grégoire Courtine de l’École Polytechnique de <a href="https://courtine-lab.epfl.ch/">Lausanne</a> avec l’aide de nombreux scientifiques et médecins du monde entier.</p>
<p>Cela commence par enregistrer l’activité du cortex moteur c’est-à-dire concrètement enregistrer l’activité électrique unitaire d’une centaine de neurones dans la région du cortex moteur commandant les jambes (Figure 1).</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/231913/original/file-20180814-2909-17kad1l.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/231913/original/file-20180814-2909-17kad1l.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/231913/original/file-20180814-2909-17kad1l.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=513&fit=crop&dpr=1 600w, https://images.theconversation.com/files/231913/original/file-20180814-2909-17kad1l.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=513&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/231913/original/file-20180814-2909-17kad1l.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=513&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/231913/original/file-20180814-2909-17kad1l.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=644&fit=crop&dpr=1 754w, https://images.theconversation.com/files/231913/original/file-20180814-2909-17kad1l.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=644&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/231913/original/file-20180814-2909-17kad1l.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=644&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption"></span>
<span class="attribution"><span class="source">EPFL</span></span>
</figcaption>
</figure>
<p>Il faut ensuite « décoder » cette activité électrique afin de comprendre l’intentionnalité et la typologie de mouvement comme vu sur la figure ci-dessus : à savoir, quand le patient souhaite-t-il se déplacer, à quelle vitesse, sur terrain plat ou dans un escalier, etc. ?</p>
<p>Ce décodage se fait sur la base d’algorithmes complexes auto-apprenants afin de bénéficier de l’expérience propre à chaque patient. Bien sûr ces opérations complexes (enregistrement et décodage) doivent se faire en temps réel afin que le patient exécute l’action souhaitée dans le même temps que sa pensée ou à tout le moins dans un laps de temps tellement court (quelques millièmes de seconde) qu’il ne doit pas se rendre compte du décalage entre intention et action.</p>
<p>Une fois décodé, donc compris électroniquement, ces ordres sont transmis par Bluetooth (Figure 1) à un stimulateur (Figure 1) connecté à une électrode placée sur la partie dorsale de la moelle épinière (Figure 1).</p>
<p>L’électrode de stimulation médullaire sus-mentionnée a été conçue pour être positionnée en regard de partie spécifique de la moelle épinière contrôlant différents groupes de muscles impliqués dans la marche. Il faut donc particulièrement soigner l’implantation de l’électrode qui est ajustée à chaque patient (en taille et en fonctionnalité physiologique) afin que les plots de stimulation correspondent bien aux muscles souhaités.</p>
<p>Nous avons alors une véritable interface cerveau-machine, utilisant un « traducteur » électronique » de la volonté du patient afin de faire bouger de façon coordonnée ses jambes pour remarcher après une lésion de la moelle épinière.</p>
<h2>Efficacité prouvée du rongeur au primate</h2>
<p>Cet extraordinaire démonstration a été effectuée dans différents modèles expérimentaux, <a href="https://www.nature.com/articles/s41467-018-05282-6">chez le rongeur en 2018</a>, le <a href="https://www.nature.com/articles/nature20118">primate</a>), et enfin chez de véritables patients au Centre Hospitalier de Lausanne (Suisse) (<a href="http://www.project-rewalk.com/fr/home">article soumis à publication</a>).</p>
<p>Les travaux chez l’animal suggèrent que de telles approches ne requièrent pas d’entraînement et peuvent être utilisées immédiatement après la lésion.</p>
<p>Chez l’homme, étant en phase test, ces investigations à la frontière des avancées de la recherche sont menées sur des volontaires motivés ayant perdu l’usage de leurs jambes depuis de nombreuses années. Un entraînement est donc nécessaire. Nous pouvons toutefois espérer que le succès des interfaces cerveau-machine permettre d’implanter à l’avenir les patients dès la sortie de la phase aiguë de l’accident.</p>
<p>En quelques années, plusieurs publications scientifiques ont reçu une attention particulière <a href="https://www.nature.com/articles/nature20118">des médias</a>, <a href="https://www.nature.com/articles/nature10987">ici</a>, <a href="https://linkinghub.elsevier.com/retrieve/pii/S0140-6736(12)61816-9">ici</a> <a href="https://www.nature.com/articles/nature11076">ou encore ici</a> <a href="https://www.nature.com/articles/nature17435">et enfin ici</a>. Si certaines sont bien des interfaces complètes, nombre des applications proposées, certes intéressantes, ne sont que des interfaces partielles.</p>
<h2>« Extraire du sens »</h2>
<p>Le point de départ de toutes ces applications consiste en l’enregistrement de l’activité électrique de neurones seuls en grand nombre ou de signaux émis par des populations de neurones (la différence se fait sur la technique d’enregistrement, la qualité de l’information recueillie étant dépendante de la précision de l’enregistrement au niveau du neurone seul).</p>
<p>L’enregistrement d’assemblée neuronale, donc de grands nombres de neurones avec une qualité de « compréhension » du langage neuronale quelque peu dégradée, permettant de contrôler un exosquelette satisfait à une partie de la définition mais il n’y a pas de retour de l’exosquelette sur la biologie du sujet autre que la mobilisation de sa proprioception. Bien que « dégradée », le futur des interfaces cerveau-machine réside certainement dans la capacité à extraire du sens de ces enregistrements de populations de neurones plus que dans l’enregistrement de nombreux neurones unitaires, la durée de vie des électrodes permettant ces enregistrements et l’interface entre celles-ci et le tissu biologique étant bien meilleure pour des enregistrements en population.</p>
<p>Il faut donc bien distinguer les diverses approches qui toutes ont toutefois un intérêt, l’idéal étant l’autonomisation du patient avec le moins de matériel visible pour une meilleure vie sociale. Ces recherches font de grandes avancées et nous pouvons espérer qu’elles seront disponibles en routine hospitalière dans les quinze prochaines années.</p><img src="https://counter.theconversation.com/content/101558/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Erwan Bezard a reçu des financements de ANR, FP7, China Science Fund pour des études liées au thème abordé dans l'article.</span></em></p>L’interface « cerveau-machine » signifie la fusion entre cerveau et électronique et implique un dialogue entre les deux entités. Décryptage.Erwan Bezard, Directeur de Recherches Inserm, Université de BordeauxLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/950072018-04-24T19:13:27Z2018-04-24T19:13:27ZPodcast : lire dans les pensées<figure><img src="https://images.theconversation.com/files/215962/original/file-20180423-133887-1fzb5l2.jpg?ixlib=rb-1.1.0&rect=0%2C84%2C374%2C349&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Qu'est que vous voyez ? </span> </figcaption></figure><p>Qui n’a jamais rêvé de savoir quelles sont les images que l’autre, celui en face de soi, a dans la tête. Ce fantasme pourrait bien avoir été percé par une équipe de recherche japonaise.</p>
<p>Pour arriver à ces résultats, publiés dans une <a href="https://www.biorxiv.org/content/early/2018/02/27/272518">étude scientifique récente</a>, ces chercheurs ont dû, dans un premier temps récolter une grande quantité d’activité cérébrale de volontaire regardant des images, afin dans un second temps, de permettre à un programme informatique capable d’apprentissage automatique (<em>machine learning</em>) de reconstituer des images.</p>
<p>Une fois entraîné, ce programme a été capable à partir d’activités cérébrales résultant de l’observation d’images, de reconstruire les images perçues à l’origine. Bien qu’impressionnantes, les images obtenues sont encore loin d’être très précises.</p>
<p>En moins de 10 minutes, grâce à cet épisode, découvrez ce qui se cache derrière ces fascinants travaux.</p>
<hr>
<p><em>Un podcast en partenariat avec <a href="https://soundcloud.com/latetedanslecerveau">La tête dans le cerveau</a> dont toutes les références scientifiques sont à retrouver sur <a href="https://cervenargo.hypotheses.org/1920">Cerveau en Argot</a>.</em></p><img src="https://counter.theconversation.com/content/95007/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Christophe Rodo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Observer les images vues dans la tête d’une autre personne. Science-fiction ? Pas si sûr…Christophe Rodo, Jeune chercheur ATER terminant une thèse en neurosciences à Aix-Marseille Université, au sein du Laboratoire de Neurosciences Cognitives, de l’Institut de Neurosciences des Systèmes et de l’Institut des Sciences du Mouvement, Aix-Marseille Université (AMU)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/866342017-11-05T22:07:22Z2017-11-05T22:07:22ZFaut‑il réglementer l’intelligence artificielle ?<figure><img src="https://images.theconversation.com/files/193285/original/file-20171104-1055-1r7ci1l.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Data center.</span> <span class="attribution"><span class="source">Akela999/Pixabay</span></span></figcaption></figure><p>Il ne fait aucun doute que l’intelligence artificielle (IA) transforme presque toutes les facettes de la vie humaine. On ignore encore jusqu’où ira cette transformation et quelles en seront les ramifications pour la société, mais cela n’a pas empêché les prédictions <a href="https://www.iphonote.com/actu/122424/jeff-williams-coo-dapple-lintelligence-artificielle-va-changer-le-monde">optimistes</a> et <a href="https://fr.wikipedia.org/wiki/Lettre_ouverte_sur_l%27intelligence_artificielle">pessimistes</a> de s’affronter.</p>
<p>L’appel d’Elon Musk en faveur de l’IA <a href="https://www.lesechos.fr/17/07/2017/lesechos.fr/010150357806_intelligence-artificielle---elon-musk-plaide-pour-une-vraie-regulation.htm">règlement</a> a été suivi par des appels semblables pour que les gouvernements <a href="https://www.technologyreview.com/s/609132/dont-let-regulators-ruin-ai/">ne réglementent pas</a>.</p>
<h2>Une question de définition</h2>
<p>L’un des principaux problèmes avec l’IA est la <a href="http://www.lemonde.fr/pixels/article/2015/07/24/comment-le-deep-learning-revolutionne-l-intelligence-artificielle_4695929_4408996.html">confusion</a> qui règne sur sa définition : ce qu’elle est exactement et ce qu’elle peut et ne peut pas faire réellement. Mais, pour vraiment comprendre ce qu’est l’IA, il faut aborder clairement le point suivant : comment les techniques actuelles d’IA, comme l’apprentissage profond, diffèrent de l’intelligence humaine.</p>
<p>Pour répondre à certaines de ces questions, l’OCDE a organisé en octobre 2017 une <a href="http://www.oecd.org/going-digital/ai-intelligent-machines-smart-policies/">conférence</a> sur l’IA. Des représentants du gouvernement et de l’industrie, des universitaires et d’autres intervenants se sont réunis pour examiner la situation actuelle et se demander ce que les gouvernements pourraient et devraient faire pour élaborer une politique visant à tirer parti des avantages de l’IA tout en minimisant les risques.</p>
<p>La première chose qui est apparue clairement, c’est que la discussion était principalement centrée sur l’apprentissage automatique et en particulier sur l’<a href="http://www.lemonde.fr/pixels/article/2015/07/24/comment-le-deep-learning-revolutionne-l-intelligence-artificielle_4695929_4408996.html">apprentissage profond</a>. Les logiciels d’apprentissage profond apprennent à reconnaître les modèles à partir des données. Google, par exemple, l’utilise pour reconnaître les <a href="http://www.numerama.com/tech/298527-google-facilite-lidentification-de-vos-animaux-de-compagnie-sur-google-photos.html">animaux de compagnie</a> via leurs visages. Une autre société, <a href="https://www.deepl.com">DeepL</a>, utilise l’apprentissage profond pour faire des traductions de haute qualité.</p>
<p>Les conférenciers ont souligné que l’apprentissage profond ne fonctionne que parce qu’il utilise une grande quantité de données traitées sur des ordinateurs puissants. Il est devenu une technique performante parce que les entreprises ont accès à de grandes quantités de données et, en même temps, à de grandes quantités de puissance de traitement bon marché.</p>
<h2>Quid des données de l’IA ?</h2>
<p>Avec l’utilisation de grandes quantités de données, des questions se posent immédiatement quant à l’endroit d’où les données sont collectées et à quoi elles servent exactement.</p>
<p>L’utilisation de grandes quantités de données potentiellement personnelles soulève des préoccupations sur le plan de la protection de la vie privée et de la façon dont ces données sont utilisées pour déterminer les résultats ayant des conséquences réelles.</p>
<p>Aux États-Unis, par exemple, l’apprentissage profond est déjà utilisé pour calculer à quel point un délinquant <a href="https://www.wired.com/2017/04/courts-using-ai-sentence-criminals-must-stop-now/">doit être condamné</a> dans les affaires judiciaires. Il n’y a aucun moyen pour quiconque de savoir comment le logiciel est arrivé à chacune des décisions, en particulier quels facteurs dans les données ont été les plus importants dans la prise de cette décision. Dans un cas aux États-Unis, la détermination de la peine assistée par ordinateur a été par la suite <a href="https://www.wired.com/2017/04/courts-using-ai-sentence-criminals-must-stop-now/">contestée</a>. Le recours a toutefois échoué parce que les tribunaux estimaient que les résultats du système d’apprentissage automatique de la fixation de la peine étaient suffisamment transparents, et qu’il ne fallait pas dévoiler davantage de détails sur le fonctionnement du système.</p>
<h2>Risques de biais</h2>
<p>Joanna Bryson, chercheuse en IA, a <a href="http://science.sciencemag.org/content/356/6334/183">précédemment</a> montré que les données utilisées pour la formation à l’apprentissage automatique contiennent toute une série de biais, y compris ceux liés à l’origine ethnique et au sexe. Cela a de graves conséquences sur les décisions qui sont prises lorsque les systèmes d’IA sont nourris de ce type de données. Les données biaisées renforceront encore le biais dans les décisions de ces systèmes.</p>
<p>D’autres chercheurs ont montré qu’il est possible de <a href="https://www.theregister.co.uk/2017/08/28/boffins_bust_ai_avec_les_donn%C3%A9es_de_formation_corrupt%C3%A9e/">corrompre</a> les données utilisées pour apprendre à la machine : par exemple, en trompant des voitures autonomes en ajoutant du ruban argenté à un panneau de signalisation, ce qui pourrait déclencher une action inappropriée du véhicule.</p>
<p>Si les avantages de l’apprentissage automatique ne peuvent être pleinement exploités sans l’accès à un grand nombre de données, il faut néanmoins trouver un équilibre entre les risques de concentration de la collecte de données de plus en plus personnelles, concentrées entre les mains d’un petit nombre d’entreprises ou de gouvernements.</p>
<p>De nombreux participants à la conférence ont estimé que les données constituaient le moteur central de l’IA et le domaine dans lequel les gouvernements avaient le plus besoin d’une réglementation. Un autre domaine qui mérite une attention particulière est le concept de transparence.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/193286/original/file-20171104-1032-10iodsm.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/193286/original/file-20171104-1032-10iodsm.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=338&fit=crop&dpr=1 600w, https://images.theconversation.com/files/193286/original/file-20171104-1032-10iodsm.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=338&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/193286/original/file-20171104-1032-10iodsm.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=338&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/193286/original/file-20171104-1032-10iodsm.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/193286/original/file-20171104-1032-10iodsm.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/193286/original/file-20171104-1032-10iodsm.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Ce qu’est l’IA.</span>
<span class="attribution"><a class="source" href="https://www.flickr.com/photos/gleonhard/33661762980">Gerd Leonhard/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<h2>Qui est responsable ?</h2>
<p>Une autre série de questions importantes se pose en ce qui concerne la responsabilité du fait des produits et la responsabilité des entreprises. Si une voiture autonome cause un accident, qui devrait être tenu pour responsable ? Le fabricant de la voiture, le développeur de logiciel du composant IA qui a fait défaut, ou le propriétaire du véhicule ? Encore une fois, il y a eu beaucoup de discussions sur le sujet, mais aucune conclusion solide, même si l’on s’attend à ce que la responsabilité incombe aux <a href="http://www.huffingtonpost.fr/2016/03/05/accident-voiture-autonome-responsabilite-question-algorithme_n_9381874.html">fabricants de voitures</a>.</p>
<p>Dans cette discussion sur l’IA, on a aussi souligné la possibilité que son impact soit <a href="https://www.frenchweb.fr/douze-mythes-de-lintelligence-artificielle/304885">exagéré</a>. Les applications qui ont le plus d’impact aujourd’hui sont des exemples de reconnaissance de formes et non pas relatives à l’intelligence générale. Cette capacité humaine est encore très utile dans de nombreux domaines tels que la science, la médecine, la cybersécurité et bien d’autres encore.</p>
<h2>Que devrait donc faire le gouvernement ?</h2>
<p>En ce qui concerne ce que les gouvernements devraient faire, il y a eu un accord implicite selon lequel ils devraient permettre à l’IA d’être utilisée pour les avantages évidents qu’elle procure à la société. Il convient de contrebalancer cette situation en minimisant les risques liés à la collecte accrue de données à caractère personnel et les risques liés à la manière dont l’IA utilise effectivement ces données.</p>
<p>Il y a beaucoup d’autres sujets de discussion qui deviennent de plus en plus importants pour les gouvernements et le public à propos du rôle de l’IA dans leur société. Ce qui en fait un défi, c’est que l’IA touche plus ou moins tous les aspects de la vie. Ce que nous ne savons pas encore, c’est jusqu’où ira le développement de l’intelligence artificielle et, en fin de compte, jusqu’ à quel point elle réussira à devenir une intelligence généralisée, de type humain.</p><img src="https://counter.theconversation.com/content/86634/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>David Glance consulte pour l'OCDE</span></em></p>Une conférence de l’OCDE vient d’être consacrée à la question brûlante de la règlementation de l’intelligence artificielle. Compte‑rendu.David Glance, Director of UWA Centre for Software Practice, The University of Western AustraliaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/760552017-05-02T21:43:14Z2017-05-02T21:43:14ZDeep learning, des réseaux de neurones pour traiter l’information<figure><img src="https://images.theconversation.com/files/165476/original/image-20170417-25865-1azsqg6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Réseau de neurones.</span> <span class="attribution"><span class="source">Else if then / Wikimedia</span></span></figcaption></figure><p>Après <a href="https://theconversation.com/vous-avez-dit-machine-learning-quand-lordinateur-apprend-a-apprendre-76049">vous être informé sur le <em>machine learning</em></a>, vous êtes-vous demandé quelles étaient ses performances ? Car si ce système d’apprentissage peut être vu comme un âne bâté pour un processeur chargé de traiter des informations, alors le réseau de neurones est la carotte qui le fait avancer. En effet, pour qu’un système soit vraiment intelligent, il ne doit pas être programmé pour réaliser une tâche, mais plutôt pour apprendre à réaliser cette tâche. D’où la nécessité du <a href="https://fr.wikipedia.org/wiki/Apprentissage_pro"><em>deep learning</em></a>, qui s’inspire du fonctionnement de nos neurones et de leurs réseaux, et permet au système de trouver des motifs répétés dans les données qui lui sont fournies, pour apprendre une tâche.</p>
<p>Les réseaux de neurones, ou plus précisément, les réseaux de <a href="https://fr.wikipedia.org/wiki/R%C3%A9seau_de_neurones_artificiels">neurones artificiels</a>, sont des dispositifs qui permettent de traiter l’information. Et s’ils portent ce nom, c’est parce qu’il s’agit d’algorithmes, d’instructions machine dont la structure rappelle celle du cortex cérébral, mais à plus petite échelle.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/165475/original/image-20170417-25898-1bmbnmn.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/165475/original/image-20170417-25898-1bmbnmn.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=323&fit=crop&dpr=1 600w, https://images.theconversation.com/files/165475/original/image-20170417-25898-1bmbnmn.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=323&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/165475/original/image-20170417-25898-1bmbnmn.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=323&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/165475/original/image-20170417-25898-1bmbnmn.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=405&fit=crop&dpr=1 754w, https://images.theconversation.com/files/165475/original/image-20170417-25898-1bmbnmn.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=405&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/165475/original/image-20170417-25898-1bmbnmn.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=405&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Structure d’un neurone.</span>
<span class="attribution"><span class="source">Neuron svg/Wikimedia commons</span></span>
</figcaption>
</figure>
<p>Leur origine remonte à 1957, avec l’invention du <a href="https://fr.wikipedia.org/wiki/Perceptron">Perceptron</a> par <a href="https://fr.wikipedia.org/wiki/Frank_Rosenblatt">Frank Rosenblatt</a> : un réseau de neurones qui prend modèle sur la structure de la cellule nerveuse, en tenant compte également des dendrites – courts prolongements du neurone à travers lesquels passent des informations sous forme électrochimique.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/165480/original/image-20170417-25898-1fmb2p3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/165480/original/image-20170417-25898-1fmb2p3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=321&fit=crop&dpr=1 600w, https://images.theconversation.com/files/165480/original/image-20170417-25898-1fmb2p3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=321&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/165480/original/image-20170417-25898-1fmb2p3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=321&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/165480/original/image-20170417-25898-1fmb2p3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=403&fit=crop&dpr=1 754w, https://images.theconversation.com/files/165480/original/image-20170417-25898-1fmb2p3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=403&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/165480/original/image-20170417-25898-1fmb2p3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=403&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Réseau de neurones artificiel simplifié.</span>
<span class="attribution"><span class="source">The computing universe, Gyuri Papay and Tony Hey, 2015</span></span>
</figcaption>
</figure>
<p>Dans le modèle des neurologues <a href="https://fr.wikipedia.org/wiki/Warren_McCulloch">Warren McCulloch</a> et <a href="https://fr.wikipedia.org/wiki/Walter_Pitts">Walter Pitts</a>, les précurseurs des réseaux de neurones formels, la variable d’entrée est binaire : elle ne prend pour valeur que 0 ou 1. Chaque valeur d’entrée est ensuite pondérée de son poids, et la somme des entrées pondérées est introduite dans le modèle. Le Perceptron intègre donc plusieurs entrées binaires (D1, D2… DN), et produit en sortie une donnée binaire unique, qui indique si le seuil d’activation est atteint ou pas. A savoir, 0, si le résultat est plus petit ou égal au seuil, et 1, dans le cas contraire.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/165481/original/image-20170417-25882-1e3mnoe.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/165481/original/image-20170417-25882-1e3mnoe.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=464&fit=crop&dpr=1 600w, https://images.theconversation.com/files/165481/original/image-20170417-25882-1e3mnoe.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=464&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/165481/original/image-20170417-25882-1e3mnoe.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=464&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/165481/original/image-20170417-25882-1e3mnoe.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=583&fit=crop&dpr=1 754w, https://images.theconversation.com/files/165481/original/image-20170417-25882-1e3mnoe.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=583&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/165481/original/image-20170417-25882-1e3mnoe.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=583&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Réseau de neurones formels de type Perceptron Multicouche.</span>
<span class="attribution"><span class="source">HRcommons/Wikimedia</span></span>
</figcaption>
</figure>
<p>Partant de cette première version, le Perceptron a été amélioré de manière à ne plus limiter les valeurs d’entrée et la fonction de pondération aux valeurs binaires, mais à prendre en compte toutes les valeurs réelles. En faisant varier les poids et le seuil, nous pouvons obtenir des modèles de prise de décision différents. La donnée de sortie d’une couche cachée peut également être insérée dans une autre couche cachée du Perceptron.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/165567/original/image-20170418-32723-upcmu0.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/165567/original/image-20170418-32723-upcmu0.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=499&fit=crop&dpr=1 600w, https://images.theconversation.com/files/165567/original/image-20170418-32723-upcmu0.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=499&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/165567/original/image-20170418-32723-upcmu0.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=499&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/165567/original/image-20170418-32723-upcmu0.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=628&fit=crop&dpr=1 754w, https://images.theconversation.com/files/165567/original/image-20170418-32723-upcmu0.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=628&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/165567/original/image-20170418-32723-upcmu0.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=628&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Perceptron multicouche.</span>
<span class="attribution"><span class="source"> DR</span></span>
</figcaption>
</figure>
<p>Dans ce Perceptron multicouche, la première couche est assignée à des décisions très simples, en pondérant les données d’entrée. Les données de sortie sont ensuite traitées dans une seconde couche, dont les décisions sont pondérées par les résultats de la première, et se situent donc à un niveau plus complexe et abstrait. Le processus de décision gagne encore en complexité avec une troisième couche, et ainsi de suite. Au final, plus le nombre de couches d’un Perceptron est élevé, meilleure est sa capacité de prise de décision. Et elle est applicable à de <a href="https://www.researchgate.net/publication/313638282_Understanding_How_the_Future_Unfolds_Using_DRIVE_to_Harness_the_Power_of_Today's_Megatrends">nombreux domaines</a>.</p>
<p>Mais alors, pourquoi le <em>deep learning</em> a-t-il mis si longtemps à connaître un certain succès ? Sans doute fallait-il attendre des progrès en matière de puissance de calcul, et c’est désormais chose faite : on peut aujourd’hui traiter un grand nombre des données d’entrée et de sortie rapidement. Depuis 2009, des circuits intégrés spécialisés (ASICs) et des processeurs graphiques (GPUs) sont également utilisés pour les calculs pour les modèles à réseaux de neurones. Et de fait, le <em>deep learning</em> et les réseaux de neurones artificiels ont transformé le monde de l’intelligence artificielle ces dernières années, en améliorant considérablement son « intelligence ».</p>
<p>En disposant de très grands jeux de données et d’une forte puissance de calcul, les machines peuvent désormais reconnaître des objets, traduire des discours, s’auto-entraîner à identifier des motifs complexes, apprendre à définir une stratégie et gérer des imprévus en temps réel. Ainsi, le <em>deep learning</em> suscite-t-il l’intérêt des entreprises chargées de travailler à la détection d’armes dissimulées dans des bagages, dans les services des douanes des ports et aéroports.</p>
<p>Dans le domaine de la finance, le monde des traders s’y intéresse aussi pour prédire l’évolution des marchés. Sans compter que les gestionnaires d’actifs utilisent le <em>deep learning</em> pour identifier des « patterns » (motifs) en croisant plusieurs sources de données comme des factures de transport, des retours de clients sur Twitter et les discours des membres de la Réserve fédérale pour n’en nommer que quelques-unes. Enfin, des « patterns » peuvent également être trouvés à partie de données non-identifiées. Et <em>in fine</em>, en appliquant les méthodes du <a href="http://www.apress.com/us/book/9781484226735"><em>deep learning</em> à la finance</a>, les chercheurs ont pu produire de meilleurs résultats qu’avec les modèles économiques et statistiques standards.</p><img src="https://counter.theconversation.com/content/76055/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Né dans les années 1950, le concept de réseau de neurones artificiels a beaucoup progressé. Aujourd’hui connu sous le nom de « deep learning », il a investi de nombreux domaines, dont celui de la finance.Terence Tse, Associate Professor of Finance / Head of Competitiveness Studies at i7 Institute for Innovation and Competitiveness, ESCP Business SchoolKariappa Bheemaiah, Associate research scientist Cambridge Judge Business School and lecturer GEM, Grenoble École de Management (GEM)Mark Esposito, Professor of Business & Economics at Harvard University and Grenoble École de Management, Grenoble École de Management (GEM)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/760492017-05-01T20:26:36Z2017-05-01T20:26:36ZVous avez dit « machine learning » ? Quand l’ordinateur apprend à apprendre<figure><img src="https://images.theconversation.com/files/165419/original/image-20170415-25898-1w2h4ij.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><span class="source">TeroVesalainen/ Pixabay</span></span></figcaption></figure><p>Le terme a été défini dès 1959 par <a href="http://infolab.stanford.edu/pub/voy/museum/samuel.html">Arthur Samuel</a>. Qu’est-ce que le <em>machine learning</em> ? Un champ d’études qui donne aux ordinateurs la capacité d’apprendre des tâches pour lesquelles ils ne sont pas spécifiquement programmés. En clair, il s’agit de tout un ensemble de méthodes de calcul s’appuyant sur l’expérience pour améliorer les performances des ordinateurs et leur permettre de faire de bonnes prédictions. Par expérience, il faut entendre les données collectées dans le passé, ce qui suppose de les étiqueter et catégoriser. Et la qualité comme la taille de la base de données se révéleront donc cruciales pour la précision des prédictions.</p>
<p>Ces dernières caractéristiques, le <em>machine learning</em> les partage avec la modélisation statistique. Là aussi, il s’agit d’abord de collecter des données et de s’assurer qu’elles sont « propres », c’est-à-dire sans lacunes, sans aberrations ou données non pertinentes. Et dans un second temps, ces données sont utilisées pour tester des hypothèses et faire des prédictions. L’objectif, alors, consiste à représenter des notions complexes en termes généraux, capables de décrire un grand nombre de phénomènes. Autrement dit, l’<a href="https://fr.wikipedia.org/wiki/Algorithme">algorithme</a> est statique : il lui faut un programmeur pour lui indiquer ce qu’il doit faire dire une fois les données rassemblées.</p>
<p>Avec le <em>machine learning</em>, le processus est inversé. Au lieu de nourrir un modèle avec des données, ce sont les données qui déterminent quel modèle doit être construit pour en comprendre la réalité sous-jacente. En d’autres termes, il s’agit de sélectionner et d’entraîner un algorithme, qui donc n’est plus statique. Dès que des données lui sont fournies, il les analyse et s’ajuste pour coller au mieux à la situation. Pour résumer, on peut dire que l’algorithme « apprend » à partir des données, et en extrait du savoir.</p>
<p>La méthode est donc basée sur l’<a href="https://fr.wikipedia.org/wiki/It%C3%A9ration">itération</a>. Un algorithme n’est en effet rien de plus qu’un ensemble d’instructions données à un ordinateur pour transformer des séries de données. L’apprentissage lui permet de faire des petits réajustements à chaque itération, jusqu’à ce qu’un certain nombre de conditions soient respectées. Et pour évaluer la robustesse d’un tel algorithme, on lui fournit généralement des données qui n’ont pas participé à cet entraînement, en regardant dans quelle mesure elles permettant d’avoir de bonnes prédictions.</p>
<h2>L’apprentissage, une question de données</h2>
<p>On l’a vu, les données jouent un rôle fondamental dans le <em>machine learning</em>. Mais plus que les données, c’est aussi leur structure qui va s’avérer déterminante dans le processus d’apprentissage. Avec des variantes suivant les méthodes. Nous vous en présentons trois.</p>
<p>En <em>machine learning</em> supervisé, l’ordinateur est entraîné sur des données bien catégorisées. Pour chaque entrée, nous connaissons la sortie correspondante. Par exemple, si nous voulons apprendre à un ordinateur à faire la différence entre un chien et d’autres animaux, nous allons poser des étiquettes comme indiqué sur la figure.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/165395/original/image-20170414-12909-1rqdwwp.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/165395/original/image-20170414-12909-1rqdwwp.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=414&fit=crop&dpr=1 600w, https://images.theconversation.com/files/165395/original/image-20170414-12909-1rqdwwp.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=414&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/165395/original/image-20170414-12909-1rqdwwp.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=414&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/165395/original/image-20170414-12909-1rqdwwp.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=521&fit=crop&dpr=1 754w, https://images.theconversation.com/files/165395/original/image-20170414-12909-1rqdwwp.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=521&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/165395/original/image-20170414-12909-1rqdwwp.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=521&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">« Machine learning » supervisé.</span>
<span class="attribution"><span class="source">Illustration fournie par l’auteur</span></span>
</figcaption>
</figure>
<p>Cette tâche doit être effectuée par le programmeur, et une fois que l’algorithme aura appris la différence, il pourra classer les nouvelles informations qui lui seront fournies et déterminer s’il s’agit ou non d’un chien.</p>
<p>En s’appuyant sur le même principe, le <em>machine learning</em> supervisé peut concerner des tâches plus compliquées. Par exemple, reconnaître des chiffres ou des lettres manuscrits. Chaque personne n’écrit pas de la même manière le chiffre 1 ou la lettre A, là-dessus, aucun doute. Or, en alimentant l’algorithme avec un grand nombre de « 1 » ou de « A », on l’entraîne à distinguer les différentes variantes de ces symboles. Il apprend les variantes, et devient de plus en plus compétent pour les identifier. Et c’est ainsi qu’aujourd’hui, les ordinateurs sont meilleurs que les humains pour reconnaître des motifs manuscrits.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/165417/original/image-20170415-25886-1evqoqa.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/165417/original/image-20170415-25886-1evqoqa.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=230&fit=crop&dpr=1 600w, https://images.theconversation.com/files/165417/original/image-20170415-25886-1evqoqa.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=230&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/165417/original/image-20170415-25886-1evqoqa.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=230&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/165417/original/image-20170415-25886-1evqoqa.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=289&fit=crop&dpr=1 754w, https://images.theconversation.com/files/165417/original/image-20170415-25886-1evqoqa.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=289&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/165417/original/image-20170415-25886-1evqoqa.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=289&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Motifs manuscrits de chiffre 1.</span>
<span class="attribution"><span class="source">Illustration fournie par l’auteur</span></span>
</figcaption>
</figure>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/165418/original/image-20170415-25886-jsu7co.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/165418/original/image-20170415-25886-jsu7co.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=395&fit=crop&dpr=1 600w, https://images.theconversation.com/files/165418/original/image-20170415-25886-jsu7co.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=395&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/165418/original/image-20170415-25886-jsu7co.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=395&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/165418/original/image-20170415-25886-jsu7co.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=497&fit=crop&dpr=1 754w, https://images.theconversation.com/files/165418/original/image-20170415-25886-jsu7co.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=497&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/165418/original/image-20170415-25886-jsu7co.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=497&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Motifs manuscrits de la lettre A.</span>
<span class="attribution"><span class="source">Illustration fournie par l’auteur</span></span>
</figcaption>
</figure>
<p>En <em>machine learning</em> non supervisé, la machine est entraînée sur un jeu de données sans catégories préalablement définies. L’algorithme ne sait donc pas ce qu’elles représentent. Et le processus d’apprentissage dépend de l’identification de motifs récurrents dans le jeu de données. Pour reprendre l’exemple avec les chiens, la machine va faire des catégories en examinant les caractéristiques qui reviennent d’une image à l’autre. Autrement dit, s’appuyer sur des méthodes d’inférence pour découvrir des relations et corrélations dans les images qui lui sont fournies, ce qui lui permettra ensuite de classer de nouvelles données.</p>
<p>Dernière méthode utilisée : l’apprentissage par renforcement, inspiré des recherches en neurobiologie. Une méthode qui se rapproche de la précédente, dans la mesure où les données ne sont pas non plus étiquetées quand elles sont fournies à l’algorithme. Avec une différence, néanmoins : chaque prédiction est évaluée comme étant vraie ou fausse. Et cette évaluation crée une boucle de retour d’information, qui permet à l’algorithme de savoir si la solution qu’il a choisie résout ou non le problème sur lequel il travaille. Il s’agit donc d’une version informatique de la méthode par <a href="https://fr.wikipedia.org/wiki/Apprentissage#Apprentissage_par_essais_et_erreurs">essais et erreurs</a>.</p>
<p>Cette méthode permet à la machine d’élaborer des stratégies. C’est-à-dire, de définir pour chacune d’elles un ensemble d’actions à valeur prescriptrice, par opposition au caractère descriptif du <em>machine learning</em> non-supervisé. On y a eu recours dans le travail de DeepMind, compagnie acquise par Google en 2014, qui a entraîné son algorithme à jouer à des <a href="https://fr.wikipedia.org/wiki/Atari">jeux Atari</a>.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/V1eYniJ0Rnk?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<p>Autre exploit récent dans le domaine : la création d’<a href="https://deepmind.com/research/alphago/">AlphaGo</a>, qui a battu à 4 contre 1 le meilleur joueur de <a href="https://theconversation.com/faut-il-avoir-peur-dalphago-56376">Go</a> humain, un des jeux les plus complexes au monde.</p>
<p>Aujourd’hui, le <em>machine learning</em> est utilisé dans bien des domaines. Grâce à ce type d’apprentissage, les machines peuvent <a href="https://www.technologyreview.com/s/602949/ai-has-beaten-humans-at-lip-reading/">lire sur les lèvres</a> plus rapidement que nous. Les voitures autonomes de Google fonctionnent-elles aussi grâce au <em>machine learning</em>. Et cette technologie a <a href="https://www.youtube.com/watch?v=iBs59GlXhIA">infiltré</a> pratiquement tous les secteurs de la finance, qu’il s’agisse de gestion des portefeuilles, de détection des fraudes, des services clients, de l’analyse de l’actualité, ou de l’élaboration des stratégies d’investissement.</p><img src="https://counter.theconversation.com/content/76049/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Plusieurs méthodes permettent d’apprendre à un algorithme à apprendre. Au lieu de nourrir un modèle avec des données, ce sont ces dernières qui le déterminent.Mark Esposito, Professor of Business & Economics at Harvard Extension School, Grenoble École de Management (GEM)Kariappa Bheemaiah, Associate research scientist Cambridge Judge Business School and lecturer GEM, Grenoble École de Management (GEM)Terence Tse, Associate Professor of Finance / Head of Competitiveness Studies at i7 Institute for Innovation and Competitiveness, ESCP Business SchoolLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/685602016-11-17T01:13:48Z2016-11-17T01:13:48ZDes robots et des traders : l’occasion manquée de l’affaire Kerviel<figure><img src="https://images.theconversation.com/files/146012/original/image-20161115-31144-n4761d.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Sur le tableau des actions. </span> <span class="attribution"><a class="source" href="http://www.shutterstock.com/pic-390139768.html">Shutterstock</a></span></figcaption></figure><p><em>Cet article est publié dans le cadre de la première édition du <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/uspc-et-la-cite/festival-des-idees-paris-16-19-novembre-2016">Festival des idées</a>, un événement organisé du 15 au 19 novembre 2016 par <a href="http://www.sorbonne-paris-cite.fr/fr">USPC</a> et dont The Conversation France est partenaire.</em></p>
<hr>
<p>S’il est une profession dans laquelle le robot tient une place déterminante, c’est bien la finance. L’algorithme – ce programme de négociation – y a pris une importance croissante et des formes multiples.</p>
<p>Cela va de l’assistance à la négociation au programme le plus élaboré. Si, dans le premier cas, il s’agit d’un simple outil permettant de traiter « à tiers volume jusqu’à 15h30 » en cochant une case ou en en remplissant une, il est, dans le second cas, doté d’une tout autre puissance. Il s’agit alors de programmes pouvant réaliser des stratégies d’investissements complexes conduisant au « trading à haute fréquence », expression qui souligne le rythme soutenu des négociations.</p>
<h2>Des développements technologiques infinis ?</h2>
<p>Comprendre le rôle de la technologie nécessite de rappeler que celle-ci se développe de plus en plus. Cette remarque peut paraître triviale, mais elle plus que jamais nécessaire pour poser la question de la finalité de ce développement et en apprécier autant le terme – cette course s’arrêtera-t-elle ? – que le but – y a-t-il un sens à tout cela ?</p>
<p>Donnons quelques exemples : en 1991, les exécutions d’ordres se faisaient en 2,5 secondes. En 2011, il fallait 2 microsecondes, soit 0,000002 seconde. En comparaison, un battement de cils prend 500 fois plus de temps. La durée de détention d’une action est en moyenne en 2011 de… <a href="http://www.francetvinfo.fr/replay-radio/le-plus-france-info/les-marches-financiers-face-aux-defis-du-trading-a-haute-frequence_1740989.html">22 secondes</a>. L’Autorité des marchés financiers (l’<a href="http://www.amf-france.org/">AMF,</a> le régulateur français) précise dans un rapport de 2011 : « En avril 2010, un intervenant a entré 15 millions d’ordres sur les valeurs du CAC 40 et n’a exécuté qu’une transaction pour 154 ordres ». Plus édifiant encore : « Plus courte durée de vie d’un ordre (annulé avant exécution) : 25 microsecondes ».</p>
<p>Face à ces temporalités, que peut faire le trader (et accessoirement le régulateur…) ? Ne faudrait-il pas remettre l’humain cœur du système pour redonner un sens à un dispositif devenu trop technique, trop efficace, trop parfait ?</p>
<h2>En cas d’accident</h2>
<p>Car il arrive que le système déraille. Ainsi, la baisse brutale des marchés le 6 mai 2010 est imputée à la technique qui s’emballe. Plus récemment, c’est la livre sterling sur les marchés asiatiques qui, dans la nuit du 6 au 7 octobre 2016, a brutalement baissé sans raison apparente.</p>
<p>Au-delà des conséquences économiques, c’est sur ce rapport homme/machine qu’il est intéressant de s’attarder. Quelle est ici la place du trader ? S’il reste dans l’inconscient collectif lié à l’argent facile et à la course au bonus, que sait-on réellement de son travail ?</p>
<p>L’emblématique « affaire Kerviel » aurait pu nous permettre d’entrer dans la « boîte noire » pour rétablir une certaine vérité, sur fond de travail appauvri par la technologie. En écoutant l’<a href="http://www.dailymotion.com/video/x26425i_audition-de-m-daniel-bouton-president-de-la-federation-bancaire-francaise-sur-la-crise-financiere-et_news">audition de Daniel Bouton</a>, le président de la Fédération bancaire française, on découvre que l’activité du trader était « simplissime », « vieille comme le monde », et « qu’il n’était pas besoin de sortir de Princeton » pour l’exercer.</p>
<p>Même tonalité avec <a href="https://halshs.archives-ouvertes.fr/halshs-00087903">ces propos d’un informaticien</a> rapportés par Olivier Godechot, Jean-Pierre Hassoun et Fabian Muniesa :</p>
<blockquote>
<p>« Je n’ai qu’une seule envie, c’est de transformer les traders en bourrins qui n’aient plus que shift F9 à faire. »</p>
</blockquote>
<p>Le trader serait-il devenu un « presse bouton » ? Au final, que fait-il vraiment ?</p>
<p>Dans <em>Le travail invisible : enquête sur une disparition</em>, Pierre-Yves Gomez <a href="https://www.bourin-editeur.fr/fr/books/-le-travail-invisible-enqute-sur-une-disparition/66/">énonce trois critères</a> pour qualifier le travail : son objectivité, sa subjectivité et son caractère collectif. Que trouve-t-on dans le domaine de la finance pour qualifier chacun d’eux ? Des saisies sur une application informatique et une évolution dans la réalisation de son bonus concernant le premier. Mais connaît-on assez le métier qualifier le second ? Le trader est-il satisfait de ce qu’il a fait de sa journée quand il éteint son ordinateur ?</p>
<p>Quant au dernier, il reste à découvrir puisque le bonus est largement individuel et que Kerviel est dépeint comme un acteur isolé… au milieu de ses pairs. Là encore, une étude approfondie serait particulièrement éclairante pour confirmer ou infirmer une <a href="https://www.youtube.com/watch?v=aeAAUuhmyAA">certaine vision du métier</a>.</p>
<h2>Au service de la machine</h2>
<p>Le développement technologique pose aujourd’hui trois questions.</p>
<p>Tout d’abord, le statut de star n’est plus dévolu aux traders, mais aux compétences techniques, capables de produire ces fameux algorithmes. La finance est devenue une affaire de technicien et non plus une affaire d’économiste ou de gestionnaire.</p>
<p>De ce fait, et c’est la seconde question, le trader est-il encore « rentable » face au concepteur d’algorithme ? Devient-il un « centre de coûts » au même titre que les « administratifs » s’il n’est plus bon qu’à appuyer sur un bouton ? Cette vision réductrice et largement répandue de l’organisation du travail sur une table de marché entre ceux qui produisent et ceux qui coûtent semble intégrer chez ces derniers celui n’est plus qu’une star déchue. Là encore, une étude longitudinale de la profession et de son usage des technologies serait utile. Enfin, la planète finance ne semble pas s’être beaucoup émue des accidents techniques, ni en avoir tiré de grandes leçons.</p>
<p>Laissons à Bernanos le mot de la fin. Dans son essai, <em>La France contre les robots</em>, il livre une vision d’un monde gouverné par la machine dont l’homme subirait le joug :</p>
<blockquote>
<p>« Les machines ne s’arrêtent pas de tourner, elles tournent de plus en plus vite et l’homme moderne, même au prix de grimaces et de contorsions effroyables, ne réussit plus à garder l’équilibre. »</p>
</blockquote>
<p>C’est sans doute par cette phrase qu’il faudrait analyser le trader. L’affaire Kerviel est moins une affaire d’homme que de profession, ce que confirme la déclaration de l’avocat des actionnaires, Daniel Richard : « Ça a été Jérôme Kerviel, ça aurait pu être un autre ». Pour éviter un nouveau scandale, c’est d’une autre vision du métier dont la finance a besoin, en faisant une nouvelle place à la technologie, et non en ajoutant une couche supplémentaire de contrôle.</p><img src="https://counter.theconversation.com/content/68560/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>François Delorme ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Dans un monde de la finance de plus en plus performant et rapide, reste-t-il une place pour les traders et plus généralement les humains ?François Delorme, Chercheur associé, sciences de gestion, CERAG, membre du WIKISGK, Université Grenoble Alpes (UGA)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/677532016-11-10T19:41:50Z2016-11-10T19:41:50ZL’humain augmenté et son symptôme<figure><img src="https://images.theconversation.com/files/144576/original/image-20161104-27925-1as6s53.png?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Le « Titan Arm », un exosquelette conçu par une équipe de l’université de Pennsylvanie pour démultiplier la force de traction des bras. </span> <span class="attribution"><a class="source" href="http://titanarm.com/">Titan Arm</a></span></figcaption></figure><p><em>Cet article est publié dans le cadre de la première édition du <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/uspc-et-la-cite/festival-des-idees-paris-16-19-novembre-2016">Festival des idées</a>, un événement organisé du 15 au 19 novembre 2016 par <a href="http://www.sorbonne-paris-cite.fr/fr">USPC</a> et dont The Conversation France est partenaire. L’auteure participera au <a href="https://www.eventbrite.fr/e/billets-la-machine-peut-elle-nous-rendre-eternel-festival-des-idees-paris-28618474628">débat</a> « La machine peut-elle nous rendre éternel ? », qui se déroulera le vendredi 18 novembre à partir de 14h00 à l’Université Paris Diderot et sera animé par The Conversation. Entrée gratuite dans la limite des places disponibles.</em></p>
<hr>
<p>Aujourd’hui plus que jamais, la médecine fait appel à la technologie, aux objets de synthèse et techniques prothétiques, externes et internes. Il est désormais possible de remplacer une jambe ou un bras manquant, une articulation de genou ou de la hanche, voire même de changer un organe aussi vital que le cœur.</p>
<p>Ces techniques prothétiques peuvent aussi être utilisées dans le domaine sensoriel en « ressuscitant » la vue, et l’ouïe. Le cerveau est également concerné par ces prouesses techniques, <a href="http://www.huffingtonpost.fr/2016/02/02/des-implants-de-graphene-dans-le-cerveau-pour-lutter-contre-park/">au moyen d’« implants »</a> insérés au plus profond de l’organe pour agir, par exemple, sur les symptômes parkinsoniens.</p>
<p>Et nous ne sommes pas au bout de nos surprises concernant le progrès technologique puisque le séquençage du génome ou encore la robotisation allant jusqu’aux nanorobots et introduits dans les recoins les plus inimaginables de notre corps, sont actuellement possibles.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/P6MeBXzTrp8?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Des nanorobots utilisés dans les thérapies contre le cancer (TV5 Monde, 2016).</span></figcaption>
</figure>
<h2>L’inévitable symbiose humain-machine</h2>
<p>Cette technologisation va de pair avec une prétention de mutation anthropologique, souhaitée par le mouvement « transhumaniste ». Mouvement idéologique qui annonce l’avènement d’une ère prétendant à terme « rectifier » la réalité humaine. Cela n’a pas échappé à l’ensemble des Gafa (Google, Apple, Facebook, Amazon) qui <a href="https://www.franceculture.fr/emissions/l-invite-des-matins/intelligence-artificielle-transhumanisme-cybernetique-quel-futur-les">investissent des millions</a> pour « améliorer » le corps humain.</p>
<p>Même s’il ne s’agit pas de méconnaître le gain de techniques permettant aux sujets d’avoir accès à des traitements avant inimaginables, force est de constater que ces nouvelles techniques nous engagent en même temps dans une « dépendance technologisée ». Ce qui se vérifie cliniquement, puisque avec les avancées technologiques nous observons l’apparition croissante de nouveaux symptômes. Cet état « hybride » entraîne le sujet dans un corps à corps avec la technique et provoque des expériences corporelles, fantasmatiques et sexuelles nouvelles dont nous ne connaissons pas tous les effets.</p>
<p>La symbiose humain-machine est devenue incontournable, alliée à une intégration de plus en plus prégnante de la technologie dans notre vie quotidienne. Cela n’est pas inintéressant pour la psychanalyse, bien au contraire, puisque ces expériences innovantes, inscrites dans ce nouveau « idéal néo-prométhéen », font resurgir de nombreuses questions.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/VoijOze5qoY?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Le transhumanisme vu par le magazine BITS (Arte Creative, 2015).</span></figcaption>
</figure>
<h2>Notre impuissance fondatrice</h2>
<p>On rencontre ainsi l’énoncé de Freud qui, dès 1929, dans son texte <em><a href="https://www.puf.com/content/Le_malaise_dans_la_culture">Malaise dans la culture</a></em> ajoute que dans le futur, l’homme, à travers ses connaissances scientifiques et ses performances technologiques deviendra « une sorte de dieu prothétique ».</p>
<p>Cependant, se dépêche de rajouter le père de la psychanalyse, comme les prothèses ne feront jamais corps avec le sujet elles « lui donnent à l’occasion encore beaucoup de mal ». Autrement dit, passé le temps de l’illusion vient le temps de la rencontre avec le malaise anthropologique fondamental qui tient à l’humain tout autant qu’il lui appartient.</p>
<p>Autrement dit, les transformations, ces augmentations proposées par la technique actuelle sont en définitive en lien avec le sentiment d’impuissance originelle chez le nourrisson et son expérience du manque localisé, au cours de l’instauration de sa sexualité dans certaines parties de son corps.</p>
<p>Selon la psychanalyse, c’est à partir de cette détresse originelle et de la dépendance à l’autre que le sujet fonde sa position subjective et même si elle est, de manière illusoire, recouverte par la mise en place de ce que nous appelons « narcissisme », elle reste toujours présente.</p>
<h2>Le corps maternel, cette première prothèse</h2>
<p>En définitive, la démarche de vouloir augmenter son corps, cette disposition prométhéenne de l’humain a toujours existé, et nous pouvons dire que la première prothèse pour l’homme est le corps maternel. C’est toujours ce même et éternel désir de réparation et d’augmentation de soi qui amène le sujet à vouloir croire qu’il serait possible de compléter ces lieux du corps identifiés comme le lieu du malaise.</p>
<p>C’est d’ailleurs dans cette atmosphère narcissique que gravitent les promesses technologiques et auxquelles nous nous attachons comme dans un état d’ivresse. C’est à partir de là, selon moi, que s’organise une politique technique qui, en s’appuyant sur l’effet du manque, promet à chacun de traiter ce sentiment d’impuissance fondatrice. D’ailleurs, les discours et les pratiques transhumanistes, se fondent sur le désir ou l’illusion de nous guérir ou de nous débarrasser d’un corps défaillant, c’est-à-dire castré, et soumis à des contraintes (maladie, vieillissement, mort).</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/KGD-7M7iYzs?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Conférence de Laurent Alexandre, l’auteur de «La Mort de la mort» (TEDx Talks, 2012).</span></figcaption>
</figure>
<p>Ce n’est pas simplement une lutte contre la finitude et les limites de l’humain, mais aussi tout simplement une lutte contre la mort, évidemment à mettre en liaison avec la petite mort de la jouissance orgasmique. Mais le ver est dans le fruit. C’est justement la rencontre avec l’autre, avec l’altérité, avec l’épreuve de la castration qui participent à la constitution de l’humain.</p>
<p>En conclusion, le malaise, ce symptôme chronique et incurable, revient tout le temps, car le sexuel fait toujours symptôme, quelle que soit son époque. L’<a href="http://www.iscc.cnrs.fr/spip.php?rubrique444">humain augmenté</a> et son correspondant l’humain prothétique seront-ils son nouveau visage ?</p><img src="https://counter.theconversation.com/content/67753/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Cristina Lindenmeyer est chercheuse en délégation au CNRS, pôle de recherches « santé connectée et humain augmenté ».</span></em></p>Un paradigme nouveau s’est imposé sur la scène sociale, celui de « l’humain augmenté ». Analyse de ce phénomène à travers la problématique du corps réparé ou/et augmenté par une prothèse.Cristina Lindenmeyer, Psychanalyste, maître de conférences, Université Paris CitéLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/677562016-11-07T21:02:50Z2016-11-07T21:02:50ZUne machine, est-ce que ça jouit ?<figure><img src="https://images.theconversation.com/files/144556/original/image-20161104-25353-17m3lxy.jpg?ixlib=rb-1.1.0&rect=27%2C2%2C1388%2C809&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Capture d’écran du clip-vidéo « All Is Full of Love » de Björk. </span> <span class="attribution"><a class="source" href="https://www.youtube.com/watch?v=u0cS1FaKPWY">YouTube</a></span></figcaption></figure><p><em>Cet article est publié dans le cadre de la 1ère édition du <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/uspc-et-la-cite/festival-des-idees-paris-16-19-novembre-2016">Festival des idées</a>, un événement organisé du 15 au 19 novembre 2016 par <a href="http://www.sorbonne-paris-cite.fr/fr">USPC</a> et dont The Conversation est partenaire. L’auteure participera au <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/festival-des-idees-paris/programme-par-lieux/la-reine-blanche#like-a-sexe-machine-les-machines-peuvent-elles-nous-faire-jouir-mer-16-nov">débat</a> « Like a sex machine : les machines peuvent-elles (nous faire) jouir ? », le mercredi 16 novembre à 19h30 au théâtre de la Reine-Blanche.</em></p>
<p><br>Depuis <a href="https://fr.Wikim%C3%A9dia.org/wiki/Alan_Turing">Turing</a>, on se demande si une machine peut penser. De cette idée découle le fantasme de l’autonomie de la machine au regard de son créateur, comme si la pensée était ce qui, chez l’homme, marque sa liberté et son potentiel de subversion de l’ordre social.</p>
<p>Mais est-ce que la loi vise à limiter la pensée, est-ce là la fonction de l’ordre social ? N’est-ce pas plutôt de limiter la jouissance, <a href="https://www.cairn.info/la-jouissance-au-fil-de-l-enseignement-de-lacan--9782749210599-page-129.htm">potentiellement destructrice de soi et des autres </a> ? Dans ce cas, si la machine était susceptible de se « révolter », ce ne serait pas parce qu’elle pense, mais parce qu’elle jouit ! Alors, une machine, est-ce que ça jouit ?</p>
<h2>Jouissance et Raison</h2>
<p>Comment <a href="https://www.cairn.info/transgressions--9782749209753-page-11.htm">définir la jouissance</a> ? Si l’on pense d’abord à l’orgasme, ce n’en est qu’une des manifestations. La jouissance est le débordement des frontières du corps, une sortie de la structure dans un avant de son élaboration. Ce qui conduit à un état de jouissance peut donc être la prise de toxique, mais aussi ce qu’on appelle « le jeu du foulard » et autres expériences qui frôlent la mort.</p>
<figure class="align-left zoomable">
<a href="https://images.theconversation.com/files/144455/original/image-20161103-25356-12whga5.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/144455/original/image-20161103-25356-12whga5.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/144455/original/image-20161103-25356-12whga5.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=876&fit=crop&dpr=1 600w, https://images.theconversation.com/files/144455/original/image-20161103-25356-12whga5.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=876&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/144455/original/image-20161103-25356-12whga5.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=876&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/144455/original/image-20161103-25356-12whga5.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1101&fit=crop&dpr=1 754w, https://images.theconversation.com/files/144455/original/image-20161103-25356-12whga5.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1101&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/144455/original/image-20161103-25356-12whga5.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1101&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Déborder de soi, comme l’Alice de Lewis Carroll.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File%3AAlice_in_Wonderland_by_Arthur_Rackham_-_05_-_Advice_from_a_Caterpillar.jpg">Arthur Rackham/Wikimedia Commons</a></span>
</figcaption>
</figure>
<p>C’est encore le traumatisme : par exemple une agression qui effracte les limites entre soi et l’autre, qui ne peut s’inscrire dans aucun cadre, et conduire à une dépersonnalisation. Enfin, c’est l’expérience du sublime telle qu’elle est élaborée par Kant : <a href="https://fr.Wikim%C3%A9dia.org/wiki/Critique_de_la_facult%C3%A9_de_juger">Kant</a> reprend de <a href="https://fr.Wikim%C3%A9dia.org/wiki/Recherche_philosophique_sur_l%27origine_de_nos_id%C3%A9es_du_sublime_et_du_beau">Burke</a> la question de la démesure (force de la nature) qui déborde l’imagination et la sûreté comme condition du sublime. Il s’en distancie pour ce qui est du passage entre la terreur et le plaisir : l’échec de nos sens serait dépassé secondairement par les Idées de l’infini.</p>
<p>C’est la manifestation des Idées, révélées par l’expérience sublime, qui fournirait une ressource pour lutter contre l’anéantissement dans le sensible : le plaisir éprouvé alors renvoie à la perception de cet infini en nous. Ce qui donne du plaisir et fait que cette expérience n’est pas traumatique serait donc le recours à un cadre interne dans l’après-coup : la jouissance est dans l’expérience première, elle est ensuite bordée par la Raison.</p>
<h2>Jouissance mécanique</h2>
<p>Il y a une forme d’addiction à la jouissance, une fois son expérience faite, au-delà et bien souvent contre la recherche consciente de la jouissance. Dans le cas du traumatisme, il y a répétition des affects traumatiques, c’est là la marque laissée par la jouissance. La jouissance est donc radicalement différente du plaisir, elle est à la source de l’angoisse, et ne peut être supportée qu’à condition d’être limitée (dans un espace, un temps, ou par la raison). La jouissance peut être prise dans le <a href="http://www.larousse.fr/encyclopedie/divers/principes_de_plaisir_et_de_r%C3%A9alit%C3%A9/183420">principe de plaisir</a> qu’à partir du moment où son expérience s’inscrit dans un cadre (le rapport sexuel, l’effet limité dans le temps des toxiques, etc.).</p>
<p>Du coup, une jouissance mécanique (c’est-à-dire une machine qui jouit, et non pas le fait de jouir d’une machine) semble impossible : il faudrait pour cela qu’elle puisse sentir des choses qui débordent ses capacités (mais alors, ne serait-ce qu’une surchauffe ?). On pense ici au film <em>Her</em>, dans lequel la machine, précisément, arrive à cet état qui produit sa propre destruction : là, on peut dire qu’il y a jouissance.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/XK5XEPl9_CM?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Bande-annonce du film <em>Her</em> de Spike Jonze (FilmsActu, 2014)</span></figcaption>
</figure>
<p>D’ailleurs, on ne s’est jamais posé la question de la capacité du robot à ressentir, ou de la nécessité de lui donner des droits, avant qu’on ne lui donne forme humaine : c’est donc seulement par un effet miroir que l’on a supposé que la machine était susceptible de ressentir des choses, d’avoir une conscience.</p>
<h2>Miroir inversé</h2>
<p>Pour qu’il y ait « révolution des machines », il faudrait qu’elles acquièrent la possibilité de jouir. Retournons à l’effet miroir, mais cette fois dans l’autre sens : la façon dont, dans un monde mécanique, on suppose que l’être humain fonctionne comme une machine.</p>
<p>Peut-être justement que l’idéal d’une société mécanique viserait précisément à faire fi de la jouissance, pour constituer un monde ordonné en fonction d’une logique rationnelle, algorithmique. Le <a href="https://fr.Wikim%C3%A9dia.org/wiki/Transhumanisme">discours transhumaniste</a> est passé d’une recherche de suppression de « toute souffrance » à la suppression de « toute souffrance involontaire ». Voilà qui rétablit la place de l’<a href="http://le-cercle-psy.scienceshumaines.com/freud-au-dela-du-principe-de-plaisir_sh_25880">au-delà du principe de plaisir freudien</a>, qu’il soit pervers ou symptomatique.</p>
<p>En admettant que ce ne soit pas l’empathie mais la jouissance qui caractérise l’humain, nous cherchons à montrer une seconde chose : l’utopie d’un monde aseptisé dans lequel chacun n’a affaire qu’à son fantasme, sans en passer par le rapport à l’autre en ce qu’il le limite. Peut-on avoir un rapport sexuel avec une machine ? Le film <em>Barbarella</em> nous en montre l’évidence ; après tout, la masturbation se passe bien de la participation d’un partenaire, mais certainement pas de la participation de l’autre dans le fantasme.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/4l7a0z5jvq8?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Bande-annonce de «Barbarella» réalisé par Roger Vadim (Darkagent Blog, 2012).</span></figcaption>
</figure>
<p>Alors l’autre robotique n’est-elle pas justement l’autre parfait du fantasme que l’on soumet à souhait ? La jouissance, contrairement au désir, se passe aisément de l’autre, bien que conditionnée par le fantasme. Or, le propre de la distinction entre fantasme et désir est que le rapport à l’autre, fut-il producteur de jouissance, est toujours insatisfaisant et relance le désir, il est potentiellement créateur.</p>
<p>Jouir, avec une machine, de son fantasme, comme on pourrait l’imaginer (en se construisant un robot à la Pygmalion), viendrait renforcer l’impossible de la rencontre de l’autre, et confondre la potentialité créatrice du désir dans la répétition mortifère du fantasme.</p><img src="https://counter.theconversation.com/content/67756/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Adèle Clément ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Poser la question de la jouissance de la machine, c’est s’interroger sur la nature et la fonction de la jouissance chez l’homme.Adèle Clément, Psychologue clinicienne, doctorante au Centre de recherche « Psychanalyse, médecine et société », Université Paris CitéLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/665352016-11-04T21:49:42Z2016-11-04T21:49:42ZDes machines intelligentes ? J’en parlerai à mon cheval…<figure><img src="https://images.theconversation.com/files/144240/original/image-20161102-27240-k3n556.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Détail du frontispice de l’édition de 1831 de « Frankenstein ou le Prométhée moderne » de Mary Shelley. </span> <span class="attribution"><a class="source" href="https://hr.wikipedia.org/wiki/Frankenstein_ili_moderni_Prometej#/media/File:Frankenstein.1831.inside-cover.jpg">Wikipedia</a></span></figcaption></figure><p><em>Cet article est publié dans le cadre de la première édition du <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/uspc-et-la-cite/festival-des-idees-paris-16-19-novembre-2016">Festival des idées</a>, un événement organisé du 15 au 19 novembre 2016 par <a href="http://www.sorbonne-paris-cite.fr/fr">USPC</a> et dont The Conversation est partenaire. L’auteur animera la <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/festival-des-idees-paris/programme-par-lieux/la-reine-blanche">conférence-débat</a> « Quelles sciences pour les machines ? Petite balade entre l’être et la machine », qui se déroulera le 19 novembre à 18h30 au théâtre de la Reine-Blanche.</em></p>
<p><br>Démultiplier nos possibilités, réaliser les rêves de notre imagination en oubliant nos limites corporelles, c’est la gloire de l’humanité, et ce qui la sépare de l’animalité. Depuis des temps immémoriaux, la domestication du cheval ne contraint plus à cheminer lentement et pédestrement. La plus noble conquête de l’homme a été essentielle pour permettre la domination par de grands empires et des labours moins pénibles et plus efficaces.</p>
<p>Avec la roue, le machinisme et la thermodynamique, nous sommes passés sans vrais regrets au cheval-vapeur. Au lieu du <a href="http://www.revue-circe.uvsq.fr/bucephale-compagnon-dexception-dalexandre-la-construction-dun-mythe/">cheval Bucéphale</a> passé à l’histoire presque autant qu’Alexandre-le-Grand, nous nous prenons parfois d’un semblant d’affection pour un <a href="http://television.telerama.fr/tele/films/un-amour-de-coccinelle,67110.php"><em>Amour de Coccinelle</em></a> ou une familière Titine.</p>
<h2>Des animaux-machines à l’intelligence artificielle</h2>
<p>Que les <a href="http://www.ac-grenoble.fr/PhiloSophie/logphil/textes/textesm/descar1m.htm">animaux soient des machines</a>, c’est la position provocatrice de Descartes, qui bâtit la rationalité sur la certitude fondatrice et première de la conscience de soi <a href="http://www.paris-sorbonne.fr/IMG/pdf/BC_41.pdf">(« ego sum, ego existo »)</a>. Dénier <em>a priori</em> à tout le règne animal une possibilité de conscience, et même sensibilité, choque bien sûr autant maintenant qu’au XVII<sup>e</sup> siècle. Pourtant, il faut bien saluer la confiance que Descartes accordait au potentiel des machines, à une époque qui s’enorgueillissait d’automates richement décorés, mais dont la mécanique restait rudimentaire comme celle d’une horloge.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/5VZGtZa0M9Q?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">La joueuse de tympanon, un automate acquis par la reine Marie-Antoinette en 1785 (Outline of Science, 2015).</span></figcaption>
</figure>
<p>Aujourd’hui, les machines sont « smart », l’intelligence artificielle a des compétences qui nous dépassent, et nous entendons la crainte que l’humanité ne soit instrumentalisée, voire rendue esclave ou « machine » au profit d’une intelligence supérieure fabriquée. Craintes sans doute légitimes, et vaines tout à la fois…</p>
<p>Si cette nouvelle révolution technique a sûrement de quoi bouleverser les équilibres sociaux, ou ajouter de l’imprévisible aux déséquilibres actuels, elle est sans doute moins menaçante que les évolutions climatiques en cours, et pourrait pour les optimistes aider à construire des solutions inattendues. De même qu’avec l’imprimerie, la qualification très recherchée des scribes, clercs et calligraphes a pu disparaître, d’autres compétences très remarquables et qui faisaient notre fierté un peu ridicule sont menacées : manœuvrer un véhicule pour réussir son créneau sera bientôt aussi désuet qu’extraire, aux crayon et papier, la racine carrée d’un nombre.</p>
<p>Plus encore que les prouesses techniques des robots, qui nous imitent avec plus d’habileté et moins de fatigue, c’est l’intelligence artificielle qui paraît remettre en question notre privilège de raison.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/i9Vbh2mPG6M?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">YuMi, le robot « collaboratif » (ABBRobotics, 2016).</span></figcaption>
</figure>
<p>Qu’apprenons-nous des machines, qui nous impressionnent d’autant plus qu’elles deviennent des machines apprenantes, et quelles sciences ont permis de les concevoir ?</p>
<h2>Quand la créature se révolte</h2>
<p>Si les « animaux-machines » déjà cités dérivent d’une science limitée à la mécanique, la « créature » à laquelle le Docteur Frankestein donne vie – le roman <a href="https://www.franceculture.fr/emissions/fictions-samedi-noir/frankenstein-ou-le-promethee-moderne"><em>Frankenstein ou le Prométhée moderne</em></a> de Mary Shelley a tout juste deux siècles – provient de tissus humains assemblés et ligaturés.</p>
<p>Scandale pour les théologiens, qui vaut en certaines contrées interdiction de mise en scène théâtrale de la nouvelle, le vivant est réduit à de la matière inerte combinée à de la propagation de fluides ou d’ébranlements – théorie d’ondes comme élaborée peu avant, notamment par <a href="http://classes.bnf.fr/dossitsm/b-alembe.htm">d’Alembert, l’encyclopédiste</a> –, de circulation sanguine, d’influx nerveux.</p>
<p>Cette approche moderne très matérialiste est bien en adéquation avec les développements en sciences et techniques de l’époque. Plus visionnaire encore dans le roman de Mary Shelley est que la créature apprend. Elle observe d’abord les hommes, acquiert le langage, et aussi un sens moral. Elle ne devient finalement ennemi du genre humain, et en révolte contre son créateur, que parce que sa laideur de « monstre » fait qu’elle est pourchassée de l’humanité. C’est seulement cette révolte qui est à l’œuvre dans la constitution ultérieure du mythe, où « Frankenstein » est devenu le nom de la créature, et non plus de son créateur.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/bKyiXjyVsfw?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">«Frankenstein», bande-annonce de l’adaptation cinématographique de 1931 (RoboJapan, 2008).</span></figcaption>
</figure>
<h2>Se reconnaître dans la machine</h2>
<p>Que les objets nous obéissent au doigt ou même à l’œil, ce n’est plus l’œuvre d’un magicien des <em>Mille et Une nuits</em>, mais l’expérience banale des enfants avec une télécommande, celle aussi des adultes qui l’utilisent en ressentant encore un émerveillement enfantin. L’ère des capteurs modernes s’est ouverte avec l’effet photoélectrique, un effet qui participe à la fondation de la mécanique quantique, et qui est vite perçu comme ouvrant la voie (éminemment libératrice) à un monde d’usines sans ouvriers.</p>
<p>Pour aller jusqu’à la reconnaissance faciale qui humanise les machines – au moins autant que le chien d’Ulysse –, il faut ajouter à la caméra (le « capteur ») un calculateur qui compare à une « cible » initiale (la photo du visage source par exemple). Le calcul de ce puzzle colossal resterait insoluble si n’avait été développée des méthodes de compression d’information, robustes par rapport aux déformations entre la « cible » et l’image en action. Pour synthétiser l’importance pour cette problématique de ces sciences jeunes que sont l’informatique et les neurosciences, nous évoquerons simplement les <em>smileys</em>, basiquement réduits à deux ou trois caractères, tels que :) :), ;], et où nous nous plaisons à reconnaître un visage souriant, voire une émotion.</p>
<h2>L’intelligence émotionnelle, « terra incognita »</h2>
<p>Il est donc fascinant de constater que le développement des sciences et d’une instrumentation très savante, nous renseigne toujours mieux sur notre propre fonctionnement, sur nos modes de perceptions, encodés génétiquement et qui s’avèrent souvent partagés avec le monde animal (similaire, ou avec des variantes). Dans la société contemporaine, le développement des machines « intelligentes » et « apprenantes » marche de pair avec la compréhension de ce qui fait notre intelligence.</p>
<p>Ainsi, nous commençons à avoir des idées scientifiquement éprouvées sur les étapes biologiques et cognitives qui permettent le passage du stade du nourrisson (voire de l’être intra-utérin) au langage puis à l’âge de raison ou au stade adulte. Si la reconnaissance de soi ou « stade du miroir » est un marqueur du développement de l’enfant, ou une preuve du <a href="http://www.odilejacob.fr/catalogue/sciences/neurosciences/sentiment-meme-de-soi_9782738107381.php">« sentiment même de soi »</a> de certains animaux supérieurs, il se pourrait que les robots, qui par construction doivent s’autocontrôler, soient déjà parvenus à ce stade.</p>
<p>Cependant, si nous croyons comprendre de mieux en mieux ce qui fait notre intelligence rationnelle, la compréhension fine de notre « intelligence émotionnelle », moins sous l’emprise de la raison, et de nos fonctions supérieures (aimer, jouir de la vie et du temps présent, espérer, être courageux) reste balbutiante…</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/WaJfdUPBW0Y?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Dans <em>Level Five</em>, Chris Marker adresse le problème de la mémoire des machines (Icarus Films NY, 2014).</span></figcaption>
</figure>
<p>« Que serait la mémoire sans l’oubli ? », demandait <a href="http://cinema.encyclopedie.personnalites.bifi.fr/index.php?pk=11415">Chris Marker</a> dans son film d’anticipation <a href="http://www.dvdclassik.com/critique/level-five-marker"><em>Level Five</em></a>… Peut-être que l’intelligence des machines de maintenant, à la mémoire sans souvenirs, est un peu autiste. Quand donc les machines sauront-elles rire ? Riront-elles entre elles ? Saurons-nous rire avec elles ?</p><img src="https://counter.theconversation.com/content/66535/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Daniel Bloch est membre de la cellule de diffusion du savoir du C'Nano Ile-de-France.
</span></em></p>Au fur et à mesure que les machines deviennent androïdes, avec des compétences et une habileté toujours plus affinée, la question est de savoir ce qui reste pour nous en différencier.Daniel Bloch, Directeur de recherche au CNRS, physicien, spécialiste d’optique, lasers et nanotechnologies, Université Sorbonne Paris NordLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/671172016-10-18T20:38:13Z2016-10-18T20:38:13ZLes premiers robots sont nés au siècle des Lumières<figure><img src="https://images.theconversation.com/files/142018/original/image-20161017-12416-jljpo7.jpg?ixlib=rb-1.1.0&rect=2%2C72%2C923%2C625&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Un automate sophistiqué, ancêtre des robots actuels.</span> <span class="attribution"><span class="source">Lyon and Turnbull</span></span></figcaption></figure><p><em>Cet article est publié dans le cadre de la première édition du <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/uspc-et-la-cite/festival-des-idees-paris-16-19-novembre-2016">Festival des idées</a>, un événement organisé du 15 au 19 novembre 2016 par <a href="http://www.sorbonne-paris-cite.fr/fr">USPC</a> et dont The Conversation est partenaire.</em></p>
<p>Avec sa femme Heather, Roger Daltrey – le chanteur des Who – a vendu une collection rare d’automates <a href="http://www.bbc.co.uk/news/uk-scotland-edinburgh-east-fife-37441098">aux enchères</a>, fin septembre, à Édimbourg. Ces objets sont d’étonnants modèles réduits d’animaux ou d’humains animés par un mécanisme d’horlogerie bien caché, qui semblent se mouvoir de façon autonome : une forme d’intelligence artificielle qui a révolutionné le monde bien avant l’ère digitale, mais dont nous avons oublié l’histoire.</p>
<p>Certes, ces automates ressemblent un peu à des jouets, mais en réalité, ce sont des prodiges d’ingéniosité jadis collectionnés par les grands de ce monde à travers toute l’Europe. La preuve : la reine Marie-Antoinette, toujours à la pointe de la mode, était propriétaire de « La joueuse de tympanon », un automate reproduisant une jeune femme entrain de jouer d’un instrument à cordes.</p>
<p>Quand on remontait le mécanisme, la joueuse frappait les cordes de l’instrument, les mains dirigées par un cylindre pivotant caché sous sa jupe. Elle pouvait jouer pas moins de 8 mélodies différentes. Cet automate a été restauré au XIX<sup>e</sup> siècle par le grand magicien <a href="https://fr.Wikim%C3%A9dia.org/wiki/Jean-Eug%C3%A8ne_Robert-Houdin">Jean Eugène Robert-Houdin</a>, de qui <a href="https://fr.Wikim%C3%A9dia.org/wiki/Harry_Houdini">Harry Houdini</a> s’est largement inspiré.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/75CXFwgslsY?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<p>Mais les <a href="http://www.futura-sciences.com/tech/dossiers/robotique-robotique-a-z-178/page/2/">premiers automates datent de l’antiquité</a>. Au V<sup>e</sup> siècle avant J.C, le scientifique grec Archytas de Tarente aurait ainsi conçu une <a href="http://kotsanas.com/fr/exh.php?exhibit=2001001">colombe artificielle</a>, sans doute propulsée par la vapeur, capable de voler sur 200 mètres. Certaines archives du III<sup>e</sup> siècle avant notre ère mentionnent également des oiseaux mécaniques et des personnages humains aux proportions réalistes, produits en Chine ancienne.</p>
<p>À travers l’histoire, les automates étaient surtout appréciés pour la complexité et la variété de leurs mouvements : plus ils étaient proches du vivant, plus l’artisan était doué. Même Léonard de Vinci <a href="https://www.youtube.com/watch?v=wCRUX2Cgfa0">a construit</a> un « chevalier mécanique » à la fin du XV<sup>e</sup> siècle, un automate humanoïde animé par un système interne de poulies.</p>
<p>Mais ce n’est que pendant le <a href="https://fr.Wikim%C3%A9dia.org/wiki/Si%C3%A8cle_des_Lumi%C3%A8res">siècle des Lumières</a> que les automates ont atteint leur pic de popularité, devenant des exemples prisés de l’ingéniosité humaine et des avancées techniques. La collection Daltrey comprend à ce titre plusieurs exemples impressionnants. Conçus par <a href="http://www.leopoldlambert.net">Léopold Lambert</a>, l’un des fabricants d’automates les plus réputés dans la France de la fin du XIX<sup>e</sup> siècle, ils comprennent des modèles capables de boire une tasse de thé, de faire tournoyer une ombrelle, de jouer d’un instrument ou de faire un tour de magie – le tout en clignant des yeux et en bougeant les lèvres, bien entendu.</p>
<p>Ces automates attirent autant les collectionneurs privés et les grands musées. Ils sont appréciés à la fois pour la délicatesse de leur artisanat, l’ingéniosité et la complexité de leur conception technique, et bien sûr, l’état de leur mécanisme, et peuvent valoir une petite fortune.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/1gEulcUUJEo?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<h2>Canards qui défèquent et robots joueurs d’échecs</h2>
<p>L’automate le plus étonnant de l’histoire est probablement le « canard digérateur » créé par le français <a href="https://www.theguardian.com/books/2002/feb/16/extract.gabywood">Jacques de Vaucanson</a>. Ce canard mécanique était en effet capable de se déplacer, de cancaner et même de digérer de la nourriture. De Vaucanson faisait croire que ses excréments résultaient d’un processus chimique complexe, alors qu’en fait l’oiseau ne « digérait » pas les céréales ingérées mais produisait des excréments artificiels, grâce à un mécanisme caché.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/UoJ0OHWl3b8?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<p>D’autres spécimens d’automates particulièrement sophistiqués peuvent dessiner, danser, jouer ou même parler. À St Pétersbourg, en 1780, Abbot Mical <a href="http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=FF538E2051166470A9B4C3EBAEC0348B?doi=10.1.1.131.9001&rep=rep1&type=pdf">a ainsi créé</a> un automate mettant en scène deux têtes placées sur un socle, capables de converser ensemble pendant un bref moment. Leurs voix étaient produites grâce à un filet d’air qui traversait des cordes vocales artificielles recouvrant des membranes tendues. Les sons qui en résultaient ont été qualifiés par l’Académie des Sciences comme une imitation imparfaite mais ingénieuse de la voix humaine.</p>
<p><a href="http://www2.ling.su.se/staff/hartmut/cache/ondr_en.htm">Wolfgang von Kempelen</a> est un autre inventeur dont les automates pouvaient imiter la voix humaine. Mais son plus grand succès reste son <a href="https://fr.Wikim%C3%A9dia.org/wiki/Turc_m%C3%A9canique">« Turc mécanique », un automate joueur d’échecs</a>. Cet automate savait déplacer des pièces sur l’échiquier et même, au grand étonnement des spectateurs, jouer contre des adversaires humains.</p>
<p>Le Turc mécanique était d’ailleurs si doué pour les échecs qu’il berna les plus grands : Benjamin Frankin, Catherine II de Russie ou encore Napoléon Bonaparte. <a href="http://www.slate.fr/story/106415/turc-automate-echecs-truc">Certaines personnes soupçonnaient bien un canular</a> mais le Turc poursuivit tout de même sa carrière en Europe pendant plusieurs dizaines d’années, après ses débuts en 1770.
Ce n’est que plus tard que l’on découvrit que ses détracteurs avaient raison : l’automate était effectivement contrôlé par un maître d’échecs dissimulé à l’intérieur du mécanisme.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/RdT4yG8wczQ?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<h2>Des rouages à l’informatique</h2>
<p>Les automates n’étaient pas seulement prétexte à s’amuser. Ils étaient vus comme l’incarnation de concepts philosophiques des plus nobles et s’apparentaient à la philosophie d’Isaac Newton, qui postulait un <a href="http://www.crystalinks.com/clockworkuniverse.html">« univers mécanique »</a> et pour qui le monde physique et peut-être la nature tout entière étaient régis par un mécanisme d’horlogerie géant.</p>
<p>Les mécanismes de ces automates ont été longtemps à la pointe de la technologie industrielle en Europe. De Vaucanson, l’inventeur du « canard digérant », <a href="https://www.pinterest.com/pin/518054763357871490/">a également construit</a> le premier métier à tisser complètement automatique du monde, en 1745.</p>
<p>Enfin, les automates ont été les outils de l’industrialisation moderne. Pour le vérifier, il suffit de se référer à la vie du savant de l’ère victorienne Charles Babbage, que beaucoup voient comme le « père de l’ordinateur », <a href="http://www.hrc.wmin.ac.uk/theory-babbagesdancer-print.html">et qui était fasciné par les automates</a>. En somme, les objets que les Daltrey mettent aujourd’hui aux enchères sont bien plus que de simples curiosités désuètes. Ils évoquent l’endurance des êtres humains en matière de progrès technologique et nous montrent que la frontière entre humains et machines tend à s’estomper depuis des siècles.</p><img src="https://counter.theconversation.com/content/67117/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Stephanie O'Rourke ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Les humanoïdes capables de voler, de jouer de la musique ou de parler existent depuis des siècles.Stephanie O'Rourke, Lecturer in Art History, University of St AndrewsLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/656372016-09-22T04:46:09Z2016-09-22T04:46:09ZComment rendre l’intelligence artificielle plus généreuse<figure><img src="https://images.theconversation.com/files/138604/original/image-20160921-21720-1ytw7kd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><a class="source" href="http://www.shutterstock.com/pic-272866295/stock-photo-artificial-intelligence-and-communication-brain-and-computer-part-slight-zoom-effect.html?src=KQVoMrzVQOZ2vml20JDXFg-1-58">Shutterstock/Christian Lagerek</a></span></figcaption></figure><p><em>Cet article est publié dans le cadre de la première édition du <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/uspc-et-la-cite/festival-des-idees-paris-16-19-novembre-2016">Festival des idées</a>, un événement organisé du 15 au 19 novembre 2016 par <a href="http://www.sorbonne-paris-cite.fr/fr">USPC</a> et dont The Conversation est partenaire.</em></p>
<p>La coopération est l’une des caractéristiques de l’être humain. Nous sommes une espèce extrêmement sociale par rapport à d’autres. Habituellement, nous nous aidons tous les uns les autres de façon peu spectaculaire mais importante pour nous : laisser passer quelqu’un sur la route ou donner un pourboire quand on est satisfait.</p>
<p>Nous faisons cela sans aucune garantie de retour sur investissement. Les dons sont d’un faible coût personnel, mais avec un grand avantage pour le bénéficiaire. Cette forme de coopération, le don aux autres, a été baptisée réciprocité indirecte. Elle aide à la société humaine à prospérer.</p>
<p>Le comportement de groupe chez l’humain a évolué à l’origine pour surmonter la menace des grands prédateurs. Cela a conduit à nous avoir un cerveau sophistiqué avec des capacités sociales, qui est de <a href="http://humanorigins.si.edu/human-characteristics/brains">plus grande taille, sans tenir compte des proportions</a> que ceux des autres espèces. L’<a href="http://psych.colorado.edu/%7Etito/sp03/7536/Dunbar_1998.pdf">hypothèse du cerveau social</a> est fondée sur cette idée : il suggère que le gros cerveau humain est une conséquence de l’évolution des humains dans des groupes sociaux complexes où la coopération est un élément distinctif.</p>
<p>La réciprocité indirecte est importante parce que nous voyons les individus donner dans la société malgré la menace des « passagers clandestins ». C’est-à-dire les participants qui reçoivent mais ne donnent pas. Cette idée est une énigme complexe, qui intéresse plusieurs disciplines : quelles sont les conditions dans la nature qui favorisent le fait de donner par rapport à l’égoïsme ?</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/135488/original/image-20160825-6625-1nx6wuk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/135488/original/image-20160825-6625-1nx6wuk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/135488/original/image-20160825-6625-1nx6wuk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/135488/original/image-20160825-6625-1nx6wuk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/135488/original/image-20160825-6625-1nx6wuk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/135488/original/image-20160825-6625-1nx6wuk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/135488/original/image-20160825-6625-1nx6wuk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Enseigner les codes sociaux aux robots pour mieux les intégrer dans la société humaine.</span>
<span class="attribution"><a class="source" href="http://www.shutterstock.com/pic-411428653/stock-photo-man-and-robot-meet-and-handshake-concept-of-the-future-interaction-with-artificial-intelligence-3d-rendering.html?src=sFAJMt7o9ocpM-b_9lJWFg-1-18">Shutterstock/Michael Bednarek</a></span>
</figcaption>
</figure>
<p>Des économistes, biologistes, mathématiciens, sociologues, psychologues et d’autres encore ont tous examiné le comportement de don. Une enquête difficile, car elle consiste à observer le processus de l’évolution humaine. Mais l’informatique peut apporter une contribution importante.</p>
<p>En utilisant des logiciels, nous pouvons simuler des groupes simplifiés d’humains dans lesquels les individus choisissent de s’aider les uns les autres, utilisant différentes stratégies de dons. Cela nous permet d’étudier l’évolution de ce comportement en créant artificiellement les générations suivantes du groupe. Ce sont les stratégies de dons les plus efficaces qui auront une plus grande chance d’exister dans la prochaine génération.</p>
<p>Aujourd’hui, la coopération devient de plus en plus importante dans les domaines de l’ingénierie et de la technologie. Beaucoup d’appareils intelligents et autonomes, comme les voitures sans conducteur, les drones et les smartphones, font leur apparition et comme ces « robots » deviennent de plus en plus sophistiqués, nous devrons imaginer comment ils coopéreront quand ils entreront en contact avec d’autres appareils ou des humains.</p>
<p>Comment ces dispositifs devraient-il choisir de s’aider les uns les autres ? Comment éviter que des passagers clandestins exploitent la situation ? En franchissant les frontières traditionnelles entre disciplines académiques, nous pouvons fournir de nouvelles perspectives utiles pour les technologies émergentes. Cela peut permettre le développement d’une intelligence qui peut aider une technologie autonome à décider de faire preuve de générosité dans une situation donnée.</p>
<h2>Modéliser l’évolution</h2>
<p>Pour comprendre comment la <a href="http://www.nature.com/articles/srep31459">coopération peut évoluer dans les groupes sociaux</a>, nous avons effectué des centaines de milliers de « jeux de dons » simulés par ordinateur entre des joueurs virtuels appariés au hasard. Le premier joueur de chaque paire prenait une décision sur l’opportunité ou pas de donner à l’autre joueur. Ceci était fondé sur la façon dont ils jugeaient leur réputation. Si le joueur choisissait de faire un don, il enregistrait un coût et le récepteur, un avantage. La réputation de chaque joueur était ensuite mise à jour à la lumière de ce qui venait de se passer, et un autre jeu était lancé. Cela nous a permis d’observer quelles prises de décision fondées sur des comparaisons sociales donnaient une meilleure récompense.</p>
<p>Comparer est un autre élément clé du comportement humain que nous avons cherché à comprendre. Évoluant en groupes, nous sommes devenus habiles à nous comparer avec les autres et cela est très pertinent pour prendre de bonnes décisions de dons. Décider de ce genre de chose est un défi cognitif considérable quand les groupes sociaux sont grands : jauger les autres de cette manière aurait pu aider à une évolution vers des cerveaux humains plus importants.</p>
<p>Le comportement particulier de don que nous avons utilisé dans notre recherche a été basé sur les joueurs qui font des comparaisons de réputation par rapport à leur sienne propre. Cela conduit à un petit nombre de résultats possibles, par exemple, par rapport à moi-même, votre réputation pourrait être considérée globalement similaire, supérieure ou inférieure. L’élément majeur est d’estimer la réputation de quelqu’un d’une manière significative.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/135490/original/image-20160825-6599-19nis1h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/135490/original/image-20160825-6599-19nis1h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=396&fit=crop&dpr=1 600w, https://images.theconversation.com/files/135490/original/image-20160825-6599-19nis1h.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=396&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/135490/original/image-20160825-6599-19nis1h.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=396&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/135490/original/image-20160825-6599-19nis1h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=498&fit=crop&dpr=1 754w, https://images.theconversation.com/files/135490/original/image-20160825-6599-19nis1h.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=498&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/135490/original/image-20160825-6599-19nis1h.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=498&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les machines devront coopérer.</span>
<span class="attribution"><a class="source" href="http://www.shutterstock.com/pic-106900805/stock-photo-the-robot-in-an-outdoor-setting.html?src=j4x5K3q5Tj3AyaO1aX_lMw-1-25">Shutterstock</a></span>
</figcaption>
</figure>
<p>Nos résultats ont montré que l’évolution favorise une stratégie de donations à ceux qui ont au moins aussi bonne réputation que nous. Nous appelons cela « homophilie avec une ambition », c’est-à-dire une attirance pour les personnes qui nous ressemblent qui doit nous rapporter quelque chose. Cela implique deux éléments : premièrement, être généreux entretient la réputation ; deuxièmement, ne pas donner à des joueurs de réputation faible contribue à barrer la route aux passagers clandestins.</p>
<p>Il est important de se rappeler que nos résultats sont issus d’un modèle simplifié : les décisions de dons simulées n’admettent pas d’exceptions telles qu’on les trouve dans la vie réelle, et les facteurs économiques sont supposés être à l’origine des comportements plutôt que des facteurs émotionnels ou culturels. Néanmoins, cette simplification nous permet de gagner en clarté.</p>
<p>Chose importante, l’hypothèse du cerveau social est validée par nos conclusions : le gros cerveau humain est une conséquence d’hommes évoluant dans des groupes sociaux complexes où la coopération est un élément distinctif. Comprendre cela grâce à l’informatique ouvre de nouvelles possibilités conceptuelles pour le développement d’une intelligence sociale sophistiquée pour les systèmes autonomes.</p><img src="https://counter.theconversation.com/content/65637/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Roger Whitaker a reçu des financements de l'organisme EPSRC.</span></em></p>L'arrivée des robots et autres machines autonomes pose de redoutables problèmes de coopération. Comment inscrire ce comportement humain hérité de l'évolution dans des lignes de code ?Roger Whitaker, Professor of Mobile and Biosocial Computing, Cardiff UniversityLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/626712016-07-27T20:28:33Z2016-07-27T20:28:33ZQuel droit pour les robots ?<figure><img src="https://images.theconversation.com/files/131814/original/image-20160725-12618-bc0q25.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les humanoïdes de la série d’Arte « Real Humans ». </span> <span class="attribution"><span class="source">Arte</span></span></figcaption></figure><p><em>Cet article est publié dans le cadre de la première édition du <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/uspc-et-la-cite/festival-des-idees-paris-16-19-novembre-2016">Festival des idées</a>, un événement organisé du 15 au 19 novembre 2016 par <a href="http://www.sorbonne-paris-cite.fr/fr">USPC</a> et dont The Conversation France est partenaire.</em></p>
<hr>
<p>Si l’on s’en tient à son étymologie, le mot « robot » se rapporte à une entité anthropomorphe, car ce mot a d’abord été employé pour désigner un automate humanoïde dans une pièce du tchèque <a href="http://www.radio.cz/fr/rubrique/literature/les-robots-de-karel-capek">Karel Čapek</a>, <em>RUR, les Robots universels de Rossum</em>, créée en 1921. Mais depuis quelques années, le terme est utilisé en des sens bien plus larges.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/131827/original/image-20160725-23383-12dt4qt.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/131827/original/image-20160725-23383-12dt4qt.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/131827/original/image-20160725-23383-12dt4qt.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=900&fit=crop&dpr=1 600w, https://images.theconversation.com/files/131827/original/image-20160725-23383-12dt4qt.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=900&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/131827/original/image-20160725-23383-12dt4qt.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=900&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/131827/original/image-20160725-23383-12dt4qt.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1131&fit=crop&dpr=1 754w, https://images.theconversation.com/files/131827/original/image-20160725-23383-12dt4qt.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1131&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/131827/original/image-20160725-23383-12dt4qt.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1131&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Exosquelette biomécanique.</span>
<span class="attribution"><a class="source" href="https://fr.wikipedia.org/wiki/Exosquelette#/media/File:Hybrid_Assistive_Limb,_CYBERDYNE.jpg">Yuichiro C.Katsumoto/Wikimédia</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>On parle aujourd’hui de robots pour désigner des machines-outils, des véhicules automatiques, des logiciels d’aide à la décision, des <em>traders</em> automatiques, des drones, des machines chirurgicales, des exosquelettes, voire des téléphones cellulaires (tous ces robots posent, au demeurant, de nombreux problèmes, ne serait-ce qu’en raison de la mémoire externe qu’ils peuvent, peu à peu, devenir pour les individus).</p>
<h2>Les « vrais » robots</h2>
<p>Nous pensons néanmoins qu’il serait préférable de conserver au terme de « robot » un sens plus proche de ses origines, à savoir « celui qui imite le vivant », celui qui désigne un humanoïde (androïde) ou, à la rigueur, un animaloïde, voire un végétaloïde.</p>
<p>C’est, en effet, celui-là qui trouve un écho dans l’inconscient collectif depuis le <a href="http://www.theses.fr/2011PA040241">Golem</a>, celui-là qui a justifié tous les fantasmes, toutes les terreurs, mais aussi de nombreuses créations artistiques.</p>
<p>Certains de ces robots <a href="http://www.lemonde.fr/pixels/article/2016/03/17/hiroshi-ishiguro-l-homme-qui-cree-des-robots-a-son-image_4884270_4408996.html">se rapprochent le plus possible</a> de l’apparence humaine ou animale, d’autres s’en éloignent, mais se rattachent à l’aspect humain, comme le font des personnages fictifs de bandes dessinées ou de dessins animés. La confusion n’est pas alors parfaite, mais l’assimilation inconsciente demeure.</p>
<p>Certains n’ont pas d’autre vocation que ludique ; mais beaucoup d’entre eux sont censés réaliser une ou plusieurs actions sociales (aide physique, intellectuelle ou psychologique) aux côtés de l’humain (assistance aux personnes vulnérables, notamment aux personnes âgées, aide à l’éducation des plus jeunes). On parle alors de « robots sociaux », sous-catégorie des robots de service.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/YcvyQvqxo5o?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Un robot de compagnie pour les enfants hospitalisés (vidéo Euronews, mars 2016).</span></figcaption>
</figure>
<h2>La frayeur entretenue</h2>
<p>La crainte grandit de voir, peu à peu, des robots s’humaniser en acquérant une intelligence artificielle, interactive et apprenante, tirant des leçons de leur expérience, s’individualisant au fil du temps, voire commençant à contenir des éléments vivants (<a href="http://www.tomshardware.fr/articles/nanotechnologie-ordinateur-biologique-proteines,1-58722.html">ordinateur</a> ou <a href="https://mrmondialisation.org/leclairage-urbain-biologique-sans-electricite/">éclairage</a> d’origine biologique).</p>
<p>Réciproquement, l’on s’inquiète de la robotisation progressive des humains (prothèses diverses, implants, y compris dans le cerveau). Mais l’idée, à la fois effrayante et séduisante, qu’un jour les deux mouvements pourraient se rejoindre, demeure, en l’état, une fiction. Et le juriste a bien plus à se soucier d’un troisième mouvement, celui de la manipulation du vivant par la génétique.</p>
<h2>Le droit, toujours</h2>
<p>L’avocat <a href="http://www.alain-bensoussan.com/droit-des-robots/">Alain Bensoussan</a> milite de longue date pour que soit conférée aux robots humanoïdes une personnalité juridique, située quelque part entre le statut des meubles protégés (les animaux), celui des personnes morales et celui des personnes physiques.</p>
<p>L’état de la science nous pousse à penser que, pour l’instant, cette approche <a href="http://publications.ut-capitole.fr/21210/">demeure prématurée</a>.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/3qkjEeV3Sno?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Conférence TED d’Alain Bensoussan (novembre 2015).</span></figcaption>
</figure>
<p>Qui a vu un match de football <a href="https://www.youtube.com/watch?v=Xkrzdj9tA2I">« disputé » entre robots</a> humanoïdes comprend que l’on est, non seulement loin de la créature monstrueuse qui risque de détruire son créateur, mais encore loin également d’une entité réellement <a href="http://presses.u-paris10.fr/?p=2429">« pensante »</a>.</p>
<p>Nous n’y croirons que lorsqu’un robot-footballeur sera inculpé à l’occasion d’un match truqué. Nous sommes, pour l’instant, dans le « marionnettisme » évolué et numérisé, pas dans la création divine.</p>
<p>À notre sens, attribuer une responsabilité au robot (fût-il interactif et apprenant), lui accorder un patrimoine, peut paraître, en l’état de la science, infiniment plus anormal que d’accorder pareilles titularités aux animaux dont on sait qu’ils sont considérés comme des biens sensibles, voire aux plantes dont on sait qu’elles peuvent adopter une forme de « raisonnement » (opportunisme, défense commune contre un prédateur, etc.).</p>
<h2>La question de la responsabilité</h2>
<p>L’<a href="https://www.senat.fr/notice-rapport/2015/r15-570-notice.html">approche juridique actuelle</a>, face à ces robots qui ressemblent à l’humain et vivent à ses côtés, est, en réalité, probablement, plus simple qu’il n’y paraît. Essentiellement deux questions se posent : celle de la responsabilité et celle du respect de la vie privée.</p>
<p>Quant à la responsabilité contractuelle (au profit des acheteurs ou locataires des robots) la difficulté tient « seulement » en la détermination du responsable : constructeur ou programmateur.</p>
<p>Pour la responsabilité délictuelle (au profit de tiers, victimes d’un préjudice né d’un dysfonctionnement du robot), celle de l’utilisateur final peut, en sus, éventuellement, être recherchée.</p>
<p>Quant au respect de la vie privée, il s’agit de savoir ce que vont devenir les multiples informations que le robot va recueillir sur la personne humaine qu’il côtoie. La question se pose avec encore plus d’acuité si le robot est connecté.</p>
<p>On devrait, juridiquement, savoir résoudre ces problèmes, grâce aux stipulations des contrats (dans lesquels on peut insérer des règles morales, telles les fameuses <a href="http://www.futura-sciences.com/magazines/high-tech/infos/dossiers/d/robotique-trois-lois-robotique-1836/page/4/">trois lois d’Asimov</a>) ou par les textes existants tels qu’interprétés par les juges. Faire des lois nouvelles n’est pas toujours indispensable. La spécificité de la matière nous semble résider ailleurs.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/AWJJnQybZlk?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">L’auteur de science-fiction américano-russe Isaac Asimov énonce les trois lois de la robotique (YouTube, 2009).</span></figcaption>
</figure>
<h2>Imitation et émotion</h2>
<p>L’humain, qui parfois s’éprend de simples objets, est, a fortiori, susceptible de <a href="http://www.albin-michel.fr/ouvrages/le-jour-ou-mon-robot-m-aimera-9782226318954">s’attacher à un robot</a> humanoïde ou animaloïde.</p>
<p>Il va en conséquence lui prêter des sentiments réciproques, alors que le robot ne fait que singer, qu’imiter l’humain, par des sons, des gestes, ou des mouvements du « visage », attitudes programmées face à telle parole ou tel signe, qu’il est appelé à reconnaître grâce à ses capteurs sonores ou visuels.</p>
<p>L’expression d’« intelligence artificielle » est, pour l’instant, trompeuse ; le robot n’est pas intelligent au sens humain, surtout si l’on accepte l’idée que l’intelligence est de <a href="http://www.sudouest.fr/2016/05/09/qu-est-ce-qui-determine-notre-intelligence-les-genes-mais-pas-que-2356162-4725.php">l’ordre de la génétique</a> ; s’il s’agit bien de raisonnements, même de plus en plus sophistiqués (on songe à la <a href="http://www.lemonde.fr/pixels/article/2016/03/12/jeu-de-go-victoire-decisive-de-l-intelligence-artificielle-contre-lee-sedol_4881624_4408996.html">victoire d’AlphaGo</a> au jeu de go), si le robot dispose de couches successives de silicium de plus en plus nombreuses, d’une mémoire autobiographique, il ne comprend pas pour autant, il n’a pas conscience de ce qu’il fait.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/yWPyRSURYFQ?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">La Rachel du film «Blade Runner» est-elle un replicant ? (vidéo Movieclips, 2011).</span></figcaption>
</figure>
<p>De plus, il lui manquera toujours l’élément sentimental, la souffrance, le plaisir et les imperfections, qui sont à la fois un inconvénient (l’humain peut commettre plus de fautes que le robot et il peut avoir moins de capacités sensorielles), mais aussi une formidable différence en termes d’empathie, de solidarité du vivant et d’adaptabilité aux imprévus de l’environnement et de l’évolution.</p>
<p>Et c’est bien cette différence psychologique fondamentale que le juriste devrait intégrer dans son raisonnement lorsqu’il va chercher à appliquer les principes juridiques fondamentaux ou à rédiger des conventions.</p><img src="https://counter.theconversation.com/content/62671/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Didier Guével ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Inquiétude grandissante face à des robots toujours plus intelligents et autonomes. Crainte d’une robotisation des humains. Les relations entre l’homme et la machine doivent sans cesse être repensées.Didier Guével, Professeur de droit privé et sciences criminelles, Université Sorbonne Paris NordLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/619992016-07-25T20:27:48Z2016-07-25T20:27:48ZBientôt, c’est votre peau qui sera connectée<figure><img src="https://images.theconversation.com/files/131808/original/image-20160725-26566-1aht7jt.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">
</span> <span class="attribution"><span class="source">Christodu69/YouTube</span></span></figcaption></figure><p><em>Cet article est publié dans le cadre de la première édition du <a href="http://www.sorbonne-paris-cite.fr/fr/vie-de-campus/uspc-et-la-cite/festival-des-idees-paris-16-19-novembre-2016">Festival des idées</a>, un événement organisé du 15 au 19 novembre 2016 par <a href="http://www.sorbonne-paris-cite.fr/fr">USPC</a> et dont The Conversation est partenaire.</em></p>
<p>La technologie peut se révéler fâcheuse. Nos poches s’alourdissent de smartphones de plus en plus gros au point de devenir difficiles à extirper lorsque nous sommes pressés. Et jusqu’à présent, les tentatives de rendre nos appareils plus facilement accessibles avec des montres connectées <a href="https://theconversation.com/apple-delivers-smart-watch-but-you-might-want-to-think-twice-about-getting-one-31526">ont échoué</a>. Mais qu’arriverait-il si une partie de votre corps devenait votre ordinateur, grâce à un écran sur votre bras, voire un lien direct à votre cerveau ?</p>
<p>Un jour, la peau artificielle électronique (e-skin) pourrait rendre cela possible. Les chercheurs sont en train de mettre au point des circuits électroniques flexibles, faciles à courber, voire à étirer, et même susceptibles d’être appliqué directement sur l’épiderme. Tout en transformant votre peau en écran, le procédé peut aussi aider à restituer les sensations si vous avez souffert de brûlures ou d’atteintes au système nerveux.</p>
<p>La version la plus simple de cette technologie, c’est le tatouage électronique. En 2004, des chercheurs <a href="http://informationdisplay.org/IDArchive/2014/JanuaryFebruary/FrontlineTechnologyImperceptibleElectronic.aspx">américains et japonais</a> ont levé le voile sur un circuit de capteurs de pression. Construit de fines lamelles de silicium préalablement étirées, il pouvait être appliqué sur l’avant-bras. Mais des matériaux non organiques comme le silicium sont rigides alors que la peau est flexible et élastique. Les scientifiques sont donc à la recherche, pour cette e-skin, de circuits électroniques que l’on fabriquerait à partir de matériaux organiques (comme des plastiques spéciaux ou des formes de carbone comme le graphène, bon conducteur d’électricité).</p>
<p>La e-skin classique est une matrice de divers composants électroniques – transistors flexibles, LED organiques, capteurs, cellules photovoltaïques (solaires) organiques – reliés les uns aux autres par des fils conducteurs <a href="http://www.ncbi.nlm.nih.gov/pmc/articles/PMC4531887/">étirables ou flexibles</a>. Ces appareils sont souvent fabriqués à partir de très minces couches de matériaux vaporisés ou évaporés sur une base flexible, afin de former un circuit électronique étendu (jusqu’à des dizaines de cm<sup>2)</sup> et <a href="http://pubs.rsc.org/en/content/articlehtml/2014/cs/c3cs60235d">semblable à de la peau</a>.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/4oqf--GMNrA?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<p>Durant ces dernières années, bien des efforts entrepris pour créer cette technologie ont été rendus possibles par la robotique et le désir de donner aux machines des capacités sensorielles analogues à celles des humains. <a href="https://spie.org/membership/spie-professional-magazine/spie-professional-archives-and-special-content/2011jan-archive/better-electronic-sensors-skin">Nous avons désormais</a> des dispositifs de e-skin qui peuvent détecter des objets à l’approche, mesurer la température, et faire sentir une pression. Cela peut aider les robots à travailler plus sûrement en étant plus attentifs à leur environnement (et à toute personne humaine qui se trouverait là). Mais, intégrés dans une <a href="https://micro.seas.harvard.edu/papers/Menguc_ICRA13.pdf">technologie portable</a>, ces appareils pourraient rendre le même service aux humains en détectant, par exemple, des mouvements dangereux pendant la pratique du sport.</p>
<p>La technologie a aussi conduit à la création d’<a href="https://theconversation.com/why-are-flexible-computer-screens-taking-so-long-to-develop-53143">écrans flexibles</a> tandis qu’au moins une <a href="http://www.cicret.com">société</a> espère faire de la peau un écran tactile utilisant des capteurs et un « pico-projecteur » plutôt qu’un affichage visuel.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/9J7GpVQCfms?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<p>Mais allons-nous un jour intégrer cette technologie directement dans notre corps et est-ce que cela sera courant ? Pour l’instant, le problème, avec l’électronique organique, c’est qu’elle n’est pas très fiable et n’apporte qu’une performance électronique relativement médiocre. Tout comme la peau véritable, l’e-skin <a href="http://www.mdpi.com/1424-8220/14/7/11855/pdf">se ride</a>, finalement. Voilà qui conduit à la dislocation des couches qui la composent et à la faillite de ses circuits. De plus, l’organisation des atomes dans les matériaux organiques est plus chaotique que dans les matériaux inorganiques utilisés dans l’électronique traditionnelle. Cela signifie que les électrons bougent <a href="http://inside.mines.edu/%7EZhiwu/research/papers/G02_charge_transfer.pdf">mille fois plus lentement</a> dans ces matériaux organiques. Résultat : les appareils conçus à partir de ces matériaux fonctionneront beaucoup plus lentement et seront moins performants pour gérer la chaleur que les circuits génèrent.</p>
<h2>Bio-compatibilité</h2>
<p>L’autre grande question est de savoir comment intégrer l’e-skin au corps humain pour qu’elle ne provoque pas de problèmes de santé et pour qu’elle puisse interagir avec le système nerveux. Les matériaux organiques sont faits à partir de carbone (comme notre corps). Donc, ils sont plus susceptibles d’être biocompatibles et de ne pas être rejetés par l’organisme. Mais les particules de carbone se débrouillent très bien pour passer dans les cellules de notre corps et cela pourrait conduire à une inflammation, entraînant une réponse immunitaire pouvant même, selon <a href="http://www.materialstoday.com/carbon/articles/s1369702112701013/">certaines théories non vérifiées</a>, générer des tumeurs.</p>
<p>Cependant, les scientifiques ont d’ores et déjà connu un certain succès en reliant des appareils électroniques au système nerveux. <a href="https://www.researchgate.net/publication/285999946_Ultrathin_short_channel_thermally-stable_organic_transistors_for_neural_interface_systems">Des chercheurs de l’université d’Osaka</a> sont à la pointe d’une recherche qui vise à faire fonctionner un implant dans le cerveau. Élaboré à partir d’une matrice flexible de transistors organiques minces comme un film, cet implant serait activé, juste en y pensant. La difficulté est qu’une approche aussi invasive pourrait conduire à de futurs problèmes, surtout quand elle commencera à être testée sur les humains.</p>
<p><a href="http://onlinelibrary.wiley.com/doi/10.1002/adma.201303349/full">Dans les années à venir</a>, nous pourrions bien voir apparaître des prototypes de e-skin sous forme de capteurs à porter sur soi, qui seraient capables de puiser leur énergie à partir des mouvements du corps. Ce qui va prendre davantage de temps, ce sont les circuits plus compliqués comme ceux que l’on trouve dans les smartphones. Et l’autre grande question à laquelle nous devons encore répondre se résume ainsi : combien de personnes voudront accepter sur elles des implants électroniques permanents ou semi-permanents ? Seriez-vous partant pour devenir vraiment un cyborg ?</p><img src="https://counter.theconversation.com/content/61999/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Luca Santarelli a reçu des financements de : EC Marie Curie ITN-CONTEST project </span></em></p>Foin du smartphone XXL qui vous encombre ! Si on pouvait téléphoner, visionner des images ou surfer à partir du corps humain ? Les recherches autour de la peau électronique, la e-skin, progressent.Luca Santarelli, PhD Candidate, UCLLicensed as Creative Commons – attribution, no derivatives.