Nous avons vu, dans un premier texte, comment cerveau et corps ne peuvent être séparés, et comment la robotique ne peut actuellement produire une copie acceptable d’un être. Par la suite, et à supposer que l’on ait résolu le problème des capteurs et des effecteurs (et donc, qu’on accepte que le cerveau téléchargé ne soit plus vraiment le nôtre), il nous reste le gros morceau, à savoir télécharger le cerveau lui-même. La première chose à faire est sans doute de définir ce que l’on entend par cerveau. Or, ce terme, par abus de langage, désigne généralement le cortex et peut-être quelques structures sous-corticales (dont l’amygdale, l’hippocampe et les ganglions de la base).
Mais le système nerveux central comprend bien d’autres structures tout à fait essentielles parmi lesquelles on peut citer dans le désordre le cervelet, le thalamus, l’hypothalamus, le bulbe rachidien, le tronc cérébral, etc. Bref, si l’on considère l’ensemble du système nerveux central, on sait qu’il est composé en moyenne de 86 milliards de neurones et que chacun de ces neurones contacte en moyenne 10 000 autres, soit un total approximatif de 860 billions de connexions.
Mais au fait, que doit-on télécharger exactement dans l’ordinateur ? Le type, la taille, la géométrie de chaque neurone ? Son potentiel de membrane ? La taille et la position de l’axone et son état de myélinisation ? La géométrie complète de l’arbre dendritique ? L’emplacement des différentes pompes à ions ? Le nombre et la position des différents neuromédiateurs ? Les impulsions en cours de transmissions ?
Tous ces éléments peuvent influer sur le fonctionnement cérébral et peuvent être pris en compte dans les simulations informatiques actuelles. Le problème est que l’on ne sait pas ce qui essentiel à notre cognition et qui fait que nous sommes ce que nous sommes. Dans le doute, nous pourrions donc vouloir tout transférer, mais l’on se retrouverait alors avec potentiellement des milliers d’informations pour chaque neurone…
L’ordre de grandeur ainsi atteint serait de l’ordre du zetta (pour se repérer : kilo, méga, giga, téra, péta, exa, zetta, à chaque étape, multiplier par mille), une taille telle que l’on ne sait pas la manipuler aujourd’hui en informatique. Et nous ne parlons que du transfert. Il faudra ensuite faire fonctionner tout cela en temps réel, puisque l’on accepterait difficilement d’avoir transféré son cerveau pour le voir fonctionner à vitesse réduite.
À un niveau purement technologique, on est donc encore très loin de pouvoir réaliser cette prouesse, et la fin probable de la loi de Moore (qui énonce, pour faire court, que la puissance des ordinateurs double tous les 18 mois) d’ici quelques années ou décennies nous empêchera peut-être à jamais d’atteindre le niveau technologique nécessaire.
Le grand projet scientifique soutenu par l’Europe Human Brain Project ne s’y est d’ailleurs pas trompé puisqu’il ne compte utiliser que des modèles extrêmement simplifiés de neurones et de synapses pour un résultat final plus qu’incertain, estiment un grand nombre de scientifiques plutôt critiques vis-à-vis des ambitions du programme. Si l’on veut des modèles plus précis, on peut se tourner vers le projet OpenWorm, mais, lui, ne prétend simuler qu’une poignée de neurones.
« IA » ou neurosciences computationnelles ?
Cette idée de vouloir transférer son cerveau dans la machine est une idée très répandue dans la littérature et le cinéma. Elle a été remise sur le devant de la scène avec les nouvelles avancées en intelligence artificielle. Mais il existe aujourd’hui une certaine confusion sur le terme intelligence artificielle (IA) ainsi que sur ses buts.
Ce que les médias désignent aujourd’hui par intelligence artificielle regroupe essentiellement les domaines de recherche de l’apprentissage machine et de la robotique dont les buts ne sont pas d’étudier ou de comprendre le cerveau et la cognition (avec évidemment des exceptions notables, voir par exemple les travaux de Pierre-Yves Oudeyer). La confusion provient certainement du fait que les algorithmes issus de ces recherches permettent d’obtenir d’excellentes performances sur des tâches que l’on pensait jusqu’alors réservées à l’humain (reconnaissance d’image, voitures autonomes, etc.).
Mais si l’apprentissage machine et la robotique progressent à pas de géant, cela ne nous apprend cependant rien sur le fonctionnement du cerveau biologique (du moins pas directement). Pour cela il faut se tourner vers les neurosciences en général et vers les neurosciences computationnelles en particulier.
On pourrait faire le parallèle entre les domaines de l’aéronautique (IA) et de l’ornithologie (neurosciences). Si l’aéronautique a cherché originellement à s’inspirer et à imiter le vol des oiseaux, cette inspiration a depuis longtemps été abandonnée au profit de la conception d’avions toujours plus performants (vitesse, charge utile, consommation, bruit, etc.) avec des techniques propres à l’aéronautique. Si l’on souhaite comprendre un peu mieux les oiseaux, il faut alors se tourner vers l’ornithologie et la biologie. De fait, parler aujourd’hui de télécharger son cerveau sur un ordinateur en raison des progrès de l’IA a autant de sens que de vouloir coller les plumes d’un oiseau sur les ailes d’un avion et prétendre qu’on a créé ainsi un oiseau artificiel.
Nul ne sait s’il sera un jour possible de « télécharger son cerveau sur un ordinateur », mais ce qui est sûr, c’est qu’en l’état actuel des connaissances, cet énoncé n’a aucun sens et le restera sans une rupture épistémologique majeure dans nos connaissances et dans notre compréhension du cerveau.