Menu Close
Un professionnel de santé muni d'un casque chirurgical pointe du doigt un pourcentage sur un écran futuriste qui symbolise les prédictions faites par des algorithmes d'intelligence artificielle.
S'il peut quantifier le niveau d'incertitude des prédictions des IA en matière de diagnostics ou de traitements, le médecin pourra décider en connaissance de cause de faire confiance à l'IA ou de procéder à des examens complémentaires. thinkhubstudio/Shutterstock

IA : Comment votre médecin saura quand il peut lui faire confiance pour ses diagnostics

L’intelligence artificielle (IA) commence déjà à être utilisée dans certains hôpitaux. Cependant, nombre de professionnels de la santé sont encore sceptiques quant à l’adoption généralisée de l’IA dans un contexte clinique.

La question du degré de confiance qu’un médecin peut avoir dans une IA qui l’aide à prendre des décisions médicales – pour poser par exemple un diagnostic ou choisir un traitement – est donc centrale. Dans cette optique, plusieurs chercheurs ont appelé ces dernières années à ce que l’incertitude des prédictions des IA soit estimée et fournie aux médecins.

Les IA expérimentées à l’hôpital

Le recours à l’IA par les médecins comme outil de travail a certainement le potentiel de révolutionner la prise en charge des patients.

L’aide au diagnostic de divers cancers, comme celui du poumon ou des seins, est ainsi un domaine de recherche très prometteur, car l’IA se révèle parfois plus précise et rapide qu’un médecin, par exemple pour établir le stade du cancer ou le localiser.

Certaines IA sont déjà présentes sur le terrain. Depuis quelques années, dans divers hôpitaux américains, des IA signalent, en routine, aux médecins et infirmiers les patients qui montrent les premiers signes de septicémie, une réponse inflammatoire généralisée associée à une infection grave qui est souvent mortelle.

L’IA est aussi expérimentée dans les centres hospitaliers universitaires (CHU) à travers la France, par exemple pour améliorer la détection de lésions cancéreuses lors d’endoscopies digestives.

Il s’agit d’un sujet d’autant plus important que les conséquences des erreurs de diagnostic peuvent être désastreuses. Aux États-Unis, les diagnostics erronés ou retardés causent près de 800 000 morts et handicaps sévères par an, ce qui pourrait correspondre à un coût de près de $ 100 milliards selon certaines estimations.

En accélérant et en améliorant le diagnostic des patients, les IA pourraient donc jouer un rôle déterminant. Néanmoins, bien que les IA soient très prometteuses, de nombreuses raisons freinent leur déploiement massif dans les hôpitaux.

Au-delà des considérations de coût ou de formation des personnels, la question de la confiance en ces algorithmes est cruciale. Ce manque de confiance pourrait être en partie pallié par une quantification des incertitudes de prédiction des IA. Chaque IA devrait alors fournir, en plus de son diagnostic, une indication sur son incertitude. Ainsi, le médecin pourra décider en connaissance de cause s’il peut faire confiance à l’IA ou si des examens complémentaires sont nécessaires.


Read more: Peut-on déjà faire confiance à l'IA pour diagnostiquer un cancer ?


De nombreuses sources d’incertitudes

Cependant, quantifier l’incertitude ou le degré de confiance que l’on peut avoir dans la prédiction d’une IA n’est pas aisé et c’est un domaine actif de recherche. En effet, plusieurs sources d’incertitudes se combinent et doivent être prises en compte.

Généralement, l’IA se sert de données comme, entre autres, des radiographies ou des résultats de bilans sanguins, pour fournir une prédiction, qui peut être par exemple un diagnostic, un pronostic ou encore un traitement à suivre. Pour ce faire, l’IA est entraînée sur des données d’anciens patients, avant d’être utilisée par le médecin pour l’aider au diagnostic ou à l’établissement du pronostic de nouveaux patients.

Les incertitudes peuvent donc provenir des données elles-mêmes, qui peuvent être incomplètes ou erronées, par exemple à cause d’erreurs de saisie. Les incertitudes de mesure, liées aux imprécisions des instruments de mesure, tels les IRM ou les échographes, sont également à considérer.

Elles peuvent aussi être dues à la variabilité intrinsèque entre les patients. Ainsi, des différences physiologiques et génétiques entre patients font que certains vont guérir suite à l’administration de chimiothérapie, et d’autres non.

De surcroît, la typologie des patients peut évoluer : les IA peuvent être entraînées sur des patients potentiellement différents de ceux sur lesquels elles vont être utilisées en conditions réelles, ce qui peut engendrer une diminution de la qualité des prédictions.

Par exemple, pendant la pandémie de Covid-19, à cause de la modification des types de patients hospitalisés, des IA n’arrivaient plus à signaler correctement les patients atteints de septicémie. Il s’agit ici d’un exemple évocateur où, du fait d’une évolution des patients, l’IA aurait dû afficher une plus grande incertitude dans ses prédictions.

Enfin, le manque de connaissance lié à des lacunes dans la compréhension des mécanismes fondamentaux qui régissent les sciences médicales et le fait qu’un modèle est par définition imparfait, est une source d’incertitude à part entière.

Quantifier le degré de confiance de la prédiction

Plusieurs approches de quantification de l’incertitude de la prédiction d’une IA existent. La plus simple consiste à estimer une valeur qui donne directement une indication sur la confiance de l’IA. À titre d’illustration, cela pourrait correspondre à la probabilité que le patient soit atteint d’une maladie. Plus la probabilité est élevée, plus on peut faire confiance au diagnostic.

Certaines méthodes fournissent aussi un ensemble de diagnostics possibles, chacun étant associé à une probabilité. Par exemple, une IA pourrait diagnostiquer l’origine de maux de tête d’un patient comme étant des migraines avec une probabilité de 50 % ou un accident vasculaire cérébral (AVC) avec une probabilité de 20 %. Le médecin aura alors moins confiance dans le diagnostic de migraine que si sa probabilité avait été de 98 % et celle d’un AVC de moins de 1 %.

Cependant, avoir une simple valeur qui décrit à elle seule l’incertitude de la prédiction n’est parfois pas suffisant, son estimation n’étant pas toujours fiable.

D’autres approches visent ainsi à quantifier également la stabilité de la prédiction à travers l’estimation d’intervalles ou zones de confiance, ou encore de distributions de probabilité. Ainsi, plus la zone de confiance est large, ou plus la distribution de probabilité est étalée, plus la prédiction de l’IA est incertaine et plus le médecin devra se montrer prudent, et potentiellement recourir à des examens supplémentaires.

Accompagner les médecins dans la prise de décision

Une fois l’incertitude quantifiée, encore faut-il la communiquer efficacement au médecin. Une visualisation claire et informative des incertitudes est donc primordiale.

On peut prendre en exemple la représentation des projections des résultats des élections présidentielles américaines de 2020 dans un journal américain lors du dépouillement – qui a duré plusieurs jours. Des statisticiens ont collaboré avec les journalistes pour représenter les incertitudes du nombre de votes pour chaque candidat sous forme de dégradé de couleur : plus la couleur est foncée, plus le nombre de votes estimé par l’IA est incertain.

Certains chercheurs recommandent aussi que l’algorithme puisse dire « je ne sais pas » quand la prédiction est trop incertaine, ce qui indiquerait au médecin qu’une évaluation plus approfondie du patient est nécessaire. Un modèle récent, qui s’inscrit dans ce paradigme, permet en théorie de diminuer de 25 % les faux positifs dans le contexte de diagnostics de cancer du sein (on parle de faux positifs quand une anomalie est constatée à la mammographie alors qu’il n’y a en fait aucun cancer), tout en réduisant de 66 % la charge de travail des médecins. Des tests en conditions cliniques seront néanmoins nécessaires pour confirmer ces résultats très encourageants.

Vers une généralisation des IA à l’hôpital

Quantifier et communiquer l’incertitude des prédictions des IA aux médecins est nécessaire pour qu’ils puissent prendre des décisions éclairées sur le traitement de leurs patients. Pour que l’IA soit adoptée de façon généralisée et pérenne, ces démarches devront en outre être intégrées à un ensemble plus large d’actions visant à améliorer la confiance en ces IA, tel qu’améliorer la compréhension de leur fonctionnement ou des garanties sur la protection de la vie privée.

De nombreuses questions restent donc ouvertes, même si les nombreux résultats prometteurs récents laissent penser qu’une révolution dans la prise en charge des patients est déjà amorcée.


Le projet « Q-Func Appel à projets franco-américains en neurosciences computationnelles 2020 » est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

Want to write?

Write an article and join a growing community of more than 182,600 academics and researchers from 4,945 institutions.

Register now