Quatre principes à appliquer pour éviter un nouvel « hiver de l’IA »

L'expression « hiver de l'IA » exprime la baisse faramineuse du budget mondial alloué à la recherche portant sur l'intelligence artificielle dans les années 1970 puis 1980. Zapp2Photo/Shutterstock

De nombreuses voix s’élèvent actuellement pour annoncer un futur « hiver » de l’intelligence artificielle (IA) après celui des années 1970 et celui des années 1980. Ces deux hivers (fin des financements, énormes désillusions et mise sous le boisseau des outils développés) ont été causés par les deux mêmes causes : une attente exagérée par rapport aux capacités de la technologie et la recherche de la technologie qui règle tous les problèmes.

En ce début d’année 2020, nous retrouvons ces deux signaux inquiétants. Les essais actuels faits avec l’IA dans les entreprises sont nombreux et intéressants, mais peu généralisables. On reste au niveau de la démonstration de faisabilité (proof of concept, ou POC) sans être capable de modifier des processus opérationnels et donc de passer à la création de valeur. Si on continue sur cette voie, le prochain hiver n’est effectivement pas loin.

Mais il est encore temps d’éviter cette grande désillusion. Le travail effectué depuis trois ans sur notre projet ANR Schopper nous a en effet permis de tester et mettre en place des démarches et outils qui fonctionnent. Nous avons notamment dégagé quatre principes simples à suivre pour mettre en place des solutions d’IA pertinentes et même potentiellement généralisables.

Parler d’applications d’IA

Les chercheurs à l’origine du concept dans les années 1950 ont nommé IA des outils technologiques capable de raisonner comme l’intelligence humaine. Une IA est un système logiciel capable de détecter (capter des informations), apprendre, comprendre et agir comme un être humain. C’est la définition de l’IA forte que l’on attend ou que l’on redoute et qui sera consciente, intelligente, généraliste et autonome.

« L’intelligence artificielle » avec Luc Julia (Conseil économique social et environnemental, juillet 2019).

Que fait-on aujourd’hui en entreprise ? Le machine learning, dans la majorité des cas, reste du data science ou des statistiques évoluées. La reconnaissance des formes utilise par exemple des réseaux de neurones de convolution. Il s’agit d’une IA étroite qui traite de l’information, mais n’agit pas. L’ensemble des solutions autour du NLP (traitement naturel du langage largement utilisé dans les chatbots et les enceintes connectées) sont toutes aussi étroites et doivent être couplées à d’autres systèmes pour agir.

L’IA forte qui agit comme un être humain n’existe pas à ce jour, ne l’attendons pas et travaillons aujourd’hui avec les solutions existantes sur des domaines et des problèmes ciblés. Mais aucun outil n’étant fort, il faudra toujours faire de l’hybridation de technologies et de l’assemblage pour obtenir des résultats satisfaisants. On nous vend de l’IA forte mais on utilise des applications étroites d’IA faible alors qu’on devrait utiliser des outils hybrides pour augmenter les capacités des utilisateurs et les enrichir.

Ajouter pertinemment de l’intelligence humaine

La non prise en compte du contexte explique la plupart des échecs de l’IA actuels. Le programme plus ou moins intelligent de machine learning avance comme une taupe dans son tunnel, vite et bien mais sans prendre conscience de son environnement.

« Comment fonctionne le machine learning ? » (Machine Learnia, avril 2019).

Toute évolution de cet environnement le fait se perdre et produire des résultats aberrants. Là où il faut une seconde à un humain pour voir que le résultat n’a juste pas de sens dans le contexte donné, pour la taupe IA ce sera une vérité à 60 % au vu des données utilisées. Sans ajouter de l’expertise humaine, on ne pourra prendre en compte l’environnement et son évolution sauf à un coût de traitement exorbitant et un coût écologique énorme.

De plus, pour la préparation des données, indispensable au bon fonctionnement de l’IA quel qu’elle soit, il est indispensable d’utiliser de l’expertise humaine des responsables opérationnels des données. L’IA prendra toutes les données comme étant d’égale valeur, alors que l’expert sait que les données de tel secteur ou de tel service sont de meilleure qualité ou plus représentatives que d’autres.

Enfin les paramétrages d’algorithmes, dans toutes les technologies utilisées, ont des conséquences importantes sur la pertinence des résultats obtenus. En paramétrant les outils, on doit comprendre qu’on fait entrer de l’expertise humaine dans le traitement automatisé.

Prendre au sérieux l’interaction humain/IA

L’humain a pris l’habitude d’interagir avec des technologies numériques de toute nature. Mais il a fallu des années pour dépasser le déterminisme technologique : la quête de l’outil informatique qui transforme par magie les organisations et les hommes pour les rendre plus performants. Le rapport entre l’humain et la technologie numérique englobe de nombreuses facettes bien connues des spécialistes, nous ne revenons ici que sur le rôle attendu de la technique informatique dans l’activité humaine.

L’informatique joue un rôle sur deux grandes catégories d’activités humaines : les actions et les décisions. Dans chacun des deux cas, l’outil numérique peut informer sans agir, remplacer (faire à la place de l’homme) ou augmenter c’est-à-dire aider et rendre plus performant.

Pour une activité de transport, un bon système logistique va informer, un robot va remplacer, un exosquelette va augmenter.

Pour la décision de recruter un collaborateur, un bon système de veille va fournir de nombreux CV, un outil IA de machine learning peut sélectionner les CV les plus adéquates à la place du recruteur et un outil plus sophistiqué d’IA va découvrir des profils non connus, fournir de nouveaux candidats et attirer l’attention du recruteur sur des compétences non visibles.

Il y a bien un choix à faire par les managers et les dirigeants politiques sur le type d’impact que l’on souhaite : remplacer pour des tâches répétitives et fatigantes pour donner du temps aux contacts humains ou augmenter la valeur ajoutée des métiers spécialisés (médecins, analystes, journalistes, etc.).

Travailler les résultats autant que les explications

L’IA nous dit : vous n’aurez pas de crédit ou on ne vous recrutera pas à 45 %. Pour accepter ces annonces, l’humain doit comprendre le raisonnement qui les a construites. Sans explication, l’IA n’est pas uniquement non éthique, elle n’est pas utilisable sauf sur des sujets sans enjeux donc sans intérêt. Selon le contexte et l’algorithme utilisé, il faudra le rendre interprétable ou explicable.

Certains outils peuvent être rendus transparents (white box) donc interprétable alors que d’autres resteront opaques (black box). Dans ce dernier cas, on utilisera un outil IA complémentaire comme « Shap » pour expliquer le fonctionnement : une IA qui explique comment marche selon elle une autre IA.

Cette explication n’est pas une description du fonctionnement de l’outil IA initial, c’est une explication du lien supposé entre les données entrées et les données sorties. On a donc aussi une explication qui est vraie à X %. Avoir un taux d’erreur sur une explication est bien plus grave qu’un taux d’erreur sur un résultat. Ce constat fait dire à Cynthia Rudin, informaticienne et statisticienne américaine spécialisée dans l’apprentissage automatique, qu’il faut à tout prix privilégier les algorithmes « white box » qui sont par nature compréhensibles.

Les différents types de tests de pénétration : boîte blanche, boîte grise et boîte noire. Astel Design/Shutterstock

Ces quatre principes peuvent être mis en œuvre dans une démarche de projet adaptée aux technologies d’IA. Par exemple, l’équipe projet va choisir la question à poser à l’IA en la reliant avec un modèle global d’actions ou de décision ce qui permet de prendre en compte l’ensemble de l’environnement et son évolution. En fonction des données disponibles, internes et externes, et de la question posée, l’équipe va choisir les technologies IA adaptées car une seule technique seule n’est jamais suffisante.

Dans la phase opérationnelle, un duo sera aux manettes : un data scientist qui ne connaît pas le domaine fonctionnel et un expert métier qui ne maîtrise pas la complexité mathématique et technique des outils d’IA. Ce duo doit être autonome, libre et en contact permanent pour avancer dans les tests : c’est de l’organisation par la conversation. Ce duo fournira à l’équipe autant des résultats des tests que des explications de ces résultats.

Il est possible d’éviter un nouvel hiver de l’IA et surtout d’utiliser ces outils performants dans l’intérêt des entreprises et de la société à condition de respecter des principes clairs et d’utiliser des démarches appropriées. Maîtrisons la technologie pour la garder à notre service.

Want to write?

Write an article and join a growing community of more than 99,600 academics and researchers from 3,194 institutions.

Register now