Menu Close

« Terminator », l’IA et le travail : l'avenir sera ce que nous en ferons

Un détail de l'affiche du dernier Terminator. Allociné

Si la sortie d’un nouvel opus de Terminator n’est plus un événement en soi, il est une dimension qu’on ne saurait renier à la franchise cinématographique de James Cameron : elle a toujours su dépeindre avec un certain brio les interactions hommes-machines en extrapolant les craintes – parfois fantasmées – que nos créations métalliques, et désormais algorithmiques, suscitent chez nous. Pourraient-elles nous remplacer, voire nous annihiler ? Ce n’est pas un hasard si la saga a acquis ses lettres de noblesse à une époque où les chaînes de montage des industries occidentales connaissaient une vague de robotisation sans précédent et où les inquiétudes autour d’une intelligence artificielle à même de nous supplanter allaient crescendo.

Humaine augmentée

Comme avaient su le faire les deux premiers épisodes de la saga en leur temps, la nouvelle itération de Terminator surfe sur cette mouvance on ne pleut plus actuelle. Elle a su déplacer géographiquement le problème de la robotisation des taches productives dans les pays émergents, et présente toujours une vision de l’avenir dystopique où les humains lutteraient pour leur survie dans un monde régi par une IA militaire qui aurait fini par se retourner contre ses créateurs. Mais, reprenant une idée bien mal exploitée de Terminator Renaissance, ce nouvel opus va plus loin en mettant en scène le personnage de Grace (interprété par Mackenzie Davis), une « Humaine augmentée » par la technologie, envoyée depuis le futur par la résistance pour protéger dans le présent celle qui deviendra leur leader. Impossible de ne pas y voir un clin d’œil appuyé aux débats qui animent actuellement la communauté civile et scientifique autour du transhumanisme et des apports de l’Intelligence Artificielle (IA) entre ses plus fervents thuriféraires et ses plus ardents détracteurs.

L’IA, entre attraction et répulsion

Ces débats sont légitimes. En tant qu’évolution naturelle de l’économie de la donnée qui a déjà transformé en profondeur les marchés et les usages, l’IA va largement façonner nos économies durant les prochaines décennies. Voilà une technologie apprenante qui est d’ores et déjà capable de faire mieux que l’Humain dans bien des domaines complexes et qui porte des promesses applicatives colossales, par exemple dans le champ de la santé, de l’énergie ou de la (cyber)sécurité. Le rapport Villani sur la question montre bien que les enjeux économiques et géostratégiques sont potentiellement colossaux. D’ailleurs, les États et entreprises ne s’y trompent pas : chaque jour apporte son lot de nouveaux plans stratégiques et autres projets ambitieux autour de l’IA.

Ses détracteurs, quant à eux, appellent à une régulation stricte. Ils redoutent en effet que le développement de l’IA n’ouvre le champ à de graves dérives éthiques et puisse aboutir à un futur dystopique dans lequel l’Homme serait aliéné et mis au service de la machine. Et tandis que l’Unesco appelle à une éthique internationale de l’IA, le Congrès US cherche à mieux encadrer son développement.

Dans le domaine du travail, ce sont les spectres de la destruction d’emplois et du déclassement qui planent. Or, s’il est indéniable que l’IA va transformer le monde du travail, il nous semble nécessaire de démêler ce qui relève du fantasme de ce qui nous guette à plus ou moins brève échéance.

L’IA et la destruction créatrice

Commençons déjà à rappeler une évidence à propos du progrès technique : la technologie est créée par les scientifiques pour que l’on puisse se passer d’eux. Concrètement, cela implique que toute innovation technologique a tout à la fois un impact économique (les applications dérivées de la technologie et les gains de productivité qu’elles engendrent) et un impact social (la destruction ou la transformation des métiers rendus moins nécessaires du fait de l’innovation). Vouloir aller à l’encontre de ce mouvement perpétuel de créations/destructions revient à entraver l’innovation, voire à la renier.

L’innovation étant un processus des plus incertains, il serait hasardeux d’estimer l’ampleur de la destruction d’emplois à moyen terme imputable à l’IA. Les tentatives en ce sens ont abouti à des écarts particulièrement déroutants, de 47 % des emplois US menacés à terme selon des chercheurs d’Oxford à… 9 % pour les pays de l’OCDE selon une autre étude. Mieux vaut alors s’attacher à l’essentiel : si l’extinction des compétences utiles (et des métiers afférents) est un cycle naturel, alors l’IA n’est pas plus à blâmer que n’importe quelle autre technologie passée ou à venir. Ce n’est pas l’IA qui a causé la disparition progressive des guichetiers et des agents de caisse dans les hypermarchés. Et l’IA n’aura que peu à voir avec la destruction massive d’emplois à venir dans la filière diesel.

De l’IA et des Hommes

L’IA, en revanche, se nourrit de toutes les données disponibles en abondance dans une société hyper connectée. Elle s’appuie également sur les progrès rapides en matière de deep et de machine learning (apprentissage automatique) et de capacités de calcul (et ce, même si la loi de Moore apparaît plus controversée que jamais). Dire que l’IA bénéficie d’un terreau favorable pour se développer à marche accélérée relève donc de l’euphémisme.

Il faut donc se préparer à ce que les emplois les plus exposés à l’automatisation subissent de plein fouet son inexorable développement. En extrapolant, tous les emplois reposant sur des choix et actions prédéfinis, des séquences répétitives et ne laissant que peu de place à l’initiative sont déjà transformés, voire en cours de remplacement, par des technologies existantes. L’IA, dans sa version « faible » (narrow AI) étendra probablement le spectre à certaines tâches intellectuelles de faible valeur ajoutée… mais ne devrait pas supplanter l’intelligence humaine avant de nombreuses années.

En effet, contrairement à sa version « forte » (full AI) qui alimente bien des fantasmes en matière de créativité et d’autonomie, l’IA que nous connaissons restera longtemps encore limitée dans ses applications : reconnaissances multiples (de langages, de formes tumorales, de visages…), résolution rationnelle de problèmes plus ou moins complexes (robo-advisoring dans la banque et l’assurance, transports autonomes…), et prédictions (de maladies, d’intentions d’achats…). Il est évident que dans bien des domaines l’IA fait déjà mieux que l’Humain : elle permet des gains d’efficacité substantiels, et rend les systèmes plus efficaces. Mais, pour l’heure, l’IA ne peut faire que ce pour quoi elle a été programmée. Une IA spécialisée dans la conduite autonome fera un bien piètre joueur d’échecs. Et une IA entraînée à jouer au go aura bien des difficultés à opérer une reconnaissance faciale. En un mot, si les IA actuelles sont déjà capables de faire bien mieux que les humains dans leurs domaines applicatifs, elles se révèlent bien incapable de faire ce que le cerveau humain parvient à réaliser naturellement : traiter une multitude de tâches diverses avec efficacité et une grande flexibilité adaptative.

Plus encore, on est encore loin de l’IA autonome et apprenante, capable de prendre des décisions en lieu et place d’êtres humains, ces êtres dotés de sensibilité, capables de s’adapter à leur environnement, d’interagir avec d’autres intelligences complexes et imprévisibles, de faire preuve d’empathie, voire même de substituer la morale à l’efficacité. À ce propos, il est d’ailleurs particulièrement intéressant de noter que les emplois de commerçant, de libraire, ou de barman, n’ont pas disparu avec les technologies susceptibles de les remplacer (liseuses électroniques, e-stores, machines expresso). Tous se sont transformés pour faire ce que la machine ne saura faire de sitôt : créer l’expérience sociale attendue. L’hôtelier japonais qui comptait 243 robots de service l’a récemment appris à ses dépens : faisabilité technique ne vaut pas automatiquement acceptabilité sociale et donc, devenir commercial.

Ce qui ne peut être évité, il faut l’embrasser

Non, tous les emplois ne seront donc pas affectés par l’IA, notamment sur le moyen terme. Non pas tant que les effets d’hystérèse ou la réglementation ralentiront son adoption par les organisations et les individus, mais tout simplement parce que la technologie sera confrontée longtemps encore à des limites difficilement dépassables. Non seulement elle ne sera pas capable de remplacer les emplois de haut niveau avant de nombreuses années (par exemple, dans la santé), mais en outre elle restera longtemps limitée à l’augmentation du potentiel humain, pour créer des « humains augmentés par la technologie ». En creux, cela invite les instituts d’enseignement supérieur à la mise en place de programmes de formation à même de préparer les individus à travailler en symbiose avec l’IA.

Car rien ne saurait plus entraver son développement. Sa pénétration progressive dans les foyers, les organisations, les SI et les usages devrait d’abord être envisagée comme le moyen de lutter contre des inefficiences manifestes résultant de la simple « bêtise humaine ». Développée par l’Homme et apprenant de l’Homme, l’IA sera ce que nous en ferons. Plutôt que de la blâmer pour ce qu’elle n’est pas (encore), ne devrions-nous pas œuvrer collectivement à ce qu’elle ne réplique pas nos propres inefficiences ? Comme une superbe rémanence de la conception de Sarah et John Connor dans Terminator 2 : « no fate, but what we make » Pas de futur écrit, mais ce que nous en ferons.

Want to write?

Write an article and join a growing community of more than 180,400 academics and researchers from 4,911 institutions.

Register now