Pourquoi votre chat est nul aux échecs et pourtant plus intelligent qu’une IA

Chat ou Mac, lequel est le plus intelligent ? Sereja Ris/Unsplash

Si vous possédez un animal domestique, par exemple un chien ou un chat, regardez-le attentivement et vous aurez alors un bon aperçu de tout ce qu’on ne sait pas faire en intelligence artificielle… « Mais mon chat ne fait rien de la journée à part dormir, manger et se laver », pourriez-vous me répondre. Et pourtant votre chat sait marcher, courir, sauter (et retomber sur ses pattes), entendre, voir, guetter, apprendre, se cacher, être heureux, être triste, avoir peur, rêver, chasser, se nourrir, se battre, s’enfuir, se reproduire, éduquer ses chatons, et la liste est encore très longue.

Chacune de ces actions met en œuvre des processus qui ne sont pas directement de l’intelligence au sens le plus commun mais relève de la cognition et de l’intelligence animale. Tous les animaux ont une cognition qui leur est propre, de l’araignée qui tisse sa toile jusqu’aux chiens guides qui viennent en aide aux personnes. Pour certains, ils peuvent même communiquer avec nous. Pas par la parole, bien entendu, mais en utilisant le langage du corps ainsi que la vocalisation (par exemple des miaulements ou des aboiements). En ce qui concerne votre chat, lorsqu’il vient négligemment se frotter contre vous ou bien qu’il reste assis devant sa gamelle ou devant une porte, le message est assez clair. Il ou elle veut une caresse, a faim ou veut sortir, puis rentrer, puis sortir, puis rentrer… Il a appris à interagir avec vous pour arriver à ses fins.

La marche, un problème complexe

RunBot. Berndporr/Wikimedia, CC BY

Parmi toutes ces aptitudes cognitives, il n’y en a aujourd’hui qu’une toute petite poignée que l’on commence un peu à savoir reproduire artificiellement. Par exemple la marche bipède. Ça n’a l’air rien de rien et c’est pourtant quelque chose d’extrêmement compliqué à réaliser pour la robotique et il aura fallu de nombreuses décennies de recherche avant de savoir construire et programmer un robot qui marche convenablement sur deux jambes. C’est-à-dire sans tomber à cause d’un petit caillou sous son pied ou lorsqu’une personne l’a simplement effleuré d’un peu trop près. Mais cette complexité existe aussi chez l’homme puisque si vous vous rappelez bien, il nous faut en moyenne une année pour apprendre à marcher. C’est dire la complexité du problème. Et je ne parle que de la marche, je ne vous parle même pas de la marelle ou du foot. Ou bien si. Aujourd’hui, un des plus gros défis en robotique autonome et de faire jouer des robots au football ! La Robocup 2020 réunissant près de 3 500 chercheurs et 3 000 robots aura lieu l’année prochaine à Bordeaux. Vous pourrez y observer des robots jouer au football, encore un peu maladroitement, il faut bien le reconnaître.

Et la reconnaissance des objets alors ? On sait le faire ça aujourd’hui, non ? S’il est vrai que l’on a vu apparaître ces dernières années des algorithmes capables de nommer le contenu de pratiquement n’importe quelle image, on ne parle pas pour autant d’intelligence ou de cognition. Pour le comprendre, il faut regarder comment ces algorithmes fonctionnent. L’apprentissage supervisé, qui reste aujourd’hui la méthode la plus populaire, consiste à présenter au programme des images ainsi qu’un mot décrivant le contenu de l’image. Le nombre total d’images est généralement bien supérieur au nombre de mots utilisés car pour un même mot, on va associer un très grand nombre d’images représentant l’objet dans différentes situations, sous différents angles de vues, sous différentes lumières, etc. Par exemple, pour reconnaître les chats, on peut présenter jusqu’à un million d’images. En faisant cela, le programme va se constituer une représentation visuelle interne de ce qu’est cet objet, en calculant une sorte de moyenne de l’ensemble des images. Mais cette représentation n’est in fine qu’une simple description qui n’est pas ancrée dans la réalité du monde.

L’expérience sensible

Pour cela, il faudrait que cet algorithme possède un corps lui permettant de faire l’expérience de l’objet. Mais quand bien même, pourrait-il comprendre ce qu’est un verre s’il n’a jamais soif ? Pourrait-il comprendre le feu s’il ne ressent jamais la douleur ? Pourrait-il comprendre le froid s’il ne frissonne jamais ? Ce qu’il faut donc comprendre lorsqu’un algorithme reconnaît un objet dans une image c’est que ce même algorithme ne comprend pas du tout (mais vraiment pas du tout) la nature de cet objet. Il ne procède que par recoupement avec des exemples qu’on lui aura présenté auparavant. Cela explique d’ailleurs pourquoi qu’il y a eu des accidents avec les voitures autonomes. Des éléments du paysage ont été pris pour d’autres (un camion pour un panneau) amenant à des collisions parfois mortelles.

Helen Keller. Bibliothèque du Congrès des États-Unis

Quid de l’humain ? Faites donc l’expérience de montrer une seule fois un vrai chiot à un enfant et il saura reconnaître n’importe quel autre chiot (même s’il ne connaît pas encore le mot). Les parents, en désignant et en nommant les choses, vont permettre à l’enfant de développer le langage sur des concepts dont il aura fait lui-même l’expérience auparavant. Mais cet apprentissage qui pourrait nous paraître facile, voire évident, ne l’est pourtant pas.

Cela est très bien illustré par la vie d’Helen Keller qui est devenue sourde, aveugle et muette à l’âge de 2 ans. Son éducatrice, Anne Sullivan, a essayé pendant longtemps de lui apprendre les mots en lui dessinant des signes sur la paume de la main puis en lui faisant toucher l’objet correspondant. Les efforts d’Anne Sullivan ont été dans un premier temps infructueux : Helen ne possédait pas les points d’entrées de cet étrange dictionnaire. Jusqu’au jour où Anne amena Helen à un puits pour lui faire ruisseler de l’eau sur les mains et…

« Soudain, j’ai eu une conscience vague de quelque chose d’oublié – le frisson d’une pensée qui me revenait – et le mystère du langage m’a alors été révélé. J’ai su que “water” signifiait la merveilleuse chose fraîche qui ruisselait sur ma main. Cette parole vivante a réveillé mon âme, lui a donné la lumière, l’espoir, la joie, l’a libéré ! Il y avait encore des obstacles, c’est vrai, mais des obstacles qui pourraient être éliminés avec le temps. »

C’est Helen Keller elle-même qui écrira ces phrases quelques années plus tard dans son livre The Story of My Life (1905). Pour elle, ce jour-là, les symboles ont été ancrés à jamais dans la réalité. Si des progrès spectaculaires ont été accomplis ces dernières années dans le domaine de l’apprentissage automatique (IA pour faire court), le problème de l’ancrage du symbole demeure quant à lui plein et entier. Et sans la résolution de ce problème, qui est une condition nécessaire mais vraisemblablement pas suffisante, il n’y aura pas d’intelligence artificielle générale. Il y a donc encore énormément de choses qu’on est très loin de savoir faire avec l’intelligence artificielle.


Cet article est publié dans le cadre de l’évènement « Le procès de l’IA », un projet Arts & Science de l’Université de Bordeaux, en partenariat avec Primesautier Théâtre.