Intelligences

Marché de Kuromon Ichiba, Ōsaka-shi, Japon. Andy Kelly/Unsplash

Intelligences

L’intelligence, qu’est ce que c’est ? Les définitions abondent. Nous en parlerons ici comme la capacité de trouver une solution à un problème. Toute solution implique la découverte d’un lien entre des éléments jusqu’alors considérés comme indépendants. Ce n’est une « découverte » que vis-à-vis des connaissances de l’observateur. S’il le savait déjà, ou s’il ne comprend pas ce lien, alors ce n’est pas de l’intelligence.

Plaçons-nous dans le cas où les règles qui régissent le fonctionnement de l’Univers sont déjà écrites (ce n’est pas toujours le cas, par exemple avec la disparition des polymorphes [2]). Les situations se déroulent en respectant les liens décrits par ces règles. Être intelligent signifie alors être capable de découvrir certains de ces liens.

Capteurs, mémoire et algorithmes

Pour être intelligent, il suffit d’observer les situations, repérer une coïncidence et vérifier que cette coïncidence n’en est pas une, que nous avons bien affaire à un lien avéré. Les statistiques et les probabilités ont été développées dans ce but (les statistiques mettent en évidence les coïncidences et les probabilités quantifient le hasard).

Le développement d’une intelligence artificielle (IA) serait donc simplissime ? Il suffirait – rien de plus !- de disposer d’un système de capteurs échantillonnant le monde environnant, d’une mémoire capable d’identifier les situations, et d’un algorithme de détection des coïncidences avec une validation éventuelle de celles-ci.

Bien évidemment, les premiers liens découverts par cette IA n’impressionneront personne : il s’agira des coïncidences les plus fréquentes, donc les plus évidentes. Il faudrait faire fonctionner le système longtemps pour qu’il découvre enfin des choses que nous ne connaissons pas. C’est ce qui c’est passé lorsque Deep Blue a battu Kasparov aux échecs ou qu’AlphaGo a écrasé le n°1 mondial du jeu de Go.

L’intelligence généraliste

Pourquoi ne sommes-nous que peu impressionnés par ces exploits ? Parce que ces IA sont spécialisées. Nous serions beaucoup plus impressionnés par une IA généraliste compétente dans TOUS les domaines. Le défi est difficile car les humains ne sont pas simplement des systèmes de capteurs et de mémoires, ils disposent d’un langage, reçoivent une éducation et vivent en société.

Le langage est une avancée fondamentale permettant de « formuler » des situations sans que celles-ci aient besoin d’être vécues. La description d’une situation suffit pour que je la ressente, la mémorise, la catégorise. Le gain de temps est énorme – sans parler des situations que nous pouvons seulement imaginer.

Chaque situation, vécue ou décrite ou imaginée, organise notre mémoire et prépare le terrain pour la découverte d’un nouveau lien. Plus il y a de situations mémorisées, plus les probabilités de découvertes augmentent. La qualité des situations est également importante. C’est le modus operandi de l’éducation : sélectionner un sous-ensemble de situations pertinentes qui seront présentées à l’apprenant pour qu’il identifie et mémorise rapidement les liens entre celles-ci.

La vie en société permet l’éducation du plus jeune par le plus âgé (celui-ci ayant plus vécu a découvert plus de liens : CQFD). Avec l’invention de l’écriture et de l’imprimerie, les éducateurs transcendent les générations. De plus, l’apprenant peut travailler « seul » à son éducation. Avec Internet, ces possibilités sont démultipliées.

Éduquer une IA

Pour rivaliser, une IA généraliste doit recevoir au minimum la même éducation qu’un être humain. Elle doit percevoir son environnement avec des capteurs de sensibilité similaire, et réagir dans des délais qui sont les nôtres. L’IA doit donc être incarnée dans un corps humanoïde pour qu’elle puisse vivre des expériences similaires à celles d’un être humain. La réussite passe par le développement d’un robot humanoïde qui sera élevé et éduqué comme n’importe quel enfant.

Tout ceci a été bien compris et c’est l’objectif de la robotique développementale que de démarrer avec un robot humanoïde « vierge », le doter d’une mémoire et d’outils de détection des coïncidences, puis de l’éduquer. Les délais envisagés sont identiques aux nôtres : deux-trois années pour la parole, puis une quinzaine d’années pour arriver au niveau bac… Ce n’est pas demain que nous serons impressionnés par une IA !

Les progrès actuels du domaine sont très lents. Il semble que nous n’avons pas bien compris comment le cerveau humain extrait les régularités (coïncidences) de son vécu, ce qui nous empêche de fournir au robot le cerveau artificiel idoine.

Cerveau humain

L’homme se caractérise par la taille de son cortex, qui occupe 80 % de la boîte crânienne – mais ne contient que 20 % des neurones (qui sont donc mieux « rangés » qu’ailleurs). Le cortex est un assemblage de 360 cartes corticales. Une carte se compose d’environ 500 colonnes corticales. L’intérêt de la colonne corticale est de passer outre les limitations imposées au neurone, dont la dépolarisation ne dure que quelques millisecondes et qui fatigue très vite. Une colonne est un réseau de 100 000 neurones. Elle ne « fatigue » jamais et affiche des niveaux d’activité variables (alors que l’état d’un neurone est binaire).

Les cartes sont connectées les unes aux autres, et forment une arborescence. Il y a donc une hiérarchie, avec des cartes de bas niveaux directement liées aux capteurs (les cortex sensoriels ou primaires), des cartes recevant leurs informations des cortex primaires (qui forment les cortex secondaires), et les cartes de haut niveau d’abstraction qui forment le cortex associatif (70 % du cortex).

À chaque instant, seules quelques colonnes corticales sont actives au sein de quelques cartes corticales. Elles constituent cependant une représentation de la situation perçue dans le contexte de tout ce qui a été vécu jusqu’à cet instant. Les mécanismes d’apprentissage neuronaux (LTP et LTD) garantissent la mémorisation de cette représentation : elle sera plus facilement retrouvée dans le futur – même si une partie seulement de cette représentation est activée. Notre cerveau est donc (uniquement) une mémoire.

Une mémoire qui innove

Le robot Poppy. http://phototheque.inria.fr/phototheque/search.do ?q=poppy, CC BY-SA

Toute la question est de savoir comment une mémoire peut devenir agissante, innovante, bref faire preuve de cognition. Prenons un robot mobile dont le cerveau informatique est composé de (seulement) deux cartes, l’une sensorielle et l’autre sensorimotrice. Deux minutes de déplacement aléatoire suffisent à auto-organiser les cartes, après quoi le robot est capable (instantanément et à la demande) de réaliser des comportements qu’il n’a jamais vus comme se déplacer en évitant les obstacles, suivre à distance un autre robot, l’attaquer, longer les murs, etc. Qui plus est, sa performance dans le comportement choisi s’améliore avec le temps qui passe. Ce robot trouve donc des solutions à des problèmes nouveaux à partir d’informations qu’il a mémorisées, il fait preuve d’intelligence !

La théorie neuronale de la Cognition que j’ai développé généralise cette approche pour montrer comment nos (360) cartes corticales coopèrent afin de synthétiser tous nos comportements, toutes nos capacités. On pourrait l’utiliser pour tenter de décrocher le prix Loebner, compétition annuelle entre « agents conversationnels » pour découvrir celui qui répond le mieux les critères du test de Turing (être pris pour un être humain).

Did you know that The Conversation is a nonprofit reader-supported global news organization?