Nourries par des données biaisées, les algorithmes reproduisent nos propres biais. Gerd Altmann / Pixabay , CC BY-NC-SA

Intelligence artificielle : combattre les biais des algorithmes

Cet article est publié dans le cadre de la Fête de la science (du 5 au 13 octobre 2019 en métropole et du 9 au 17 novembre en outre-mer et à l’international) dont The Conversation France est partenaire. Cette nouvelle édition a pour thème « À demain, raconter la science, imaginer l’avenir ». Retrouvez tous les débats et les événements de votre région sur le site Fetedelascience.fr.


L’intelligence artificielle (IA) suscite depuis quelques années un fort engouement. On attend grâce à elle l’avènement d’une médecine personnalisée voire prédictive, et l’on s’extasie de son immense potentiel en matière d’éducation, d’égalité sociale et économique… ou encore de lutte contre les fléaux contemporains, comme la faim dans le monde ou les crises climatiques.

Ces belles promesses ne doivent toutefois pas occulter les difficultés que généreront les changements provoqués par l’IA. Son avènement pose de nouveaux défis, comme l’évolution des emplois, et peut présenter une menace pour la démocratie via ses algorithmes : on connaît désormais la manipulation d’opinion qu’ils peuvent engendrer sur les réseaux sociaux. Par ailleurs, des systèmes d’IA utilisés aux États-Unis par la justice ou la police en vue de prédire le risque de récidive ou de survenance de crimes, se sont révélés racistes envers les populations noires et latino-américaines.

Algorithmes biaisés

De tels résultats discriminants s’expliquent en grande partie par des données biaisées, utilisées pour entraîner les algorithmes qui deviennent, à leur tour, biaisés. Les difficultés rencontrées lors de la construction d’algorithmes sont liées aux conditions d’apprentissage des décisions. Par exemple, un algorithme avait été créé pour trier des CV : or il a « appris » sur la base de recrutements précédents qui étaient eux-mêmes biaisés, puisque plus favorables aux hommes qu’aux femmes à compétence égale. Mais les biais peuvent aussi porter sur la non-représentativité de la population ou simplement refléter les biais structurels de la société : il y a là des sources de rupture d’équité.

La prise de décision algorithmique ou aide à la décision, comme Parcoursup, reproduit voire renforce le biais. Plus dangereux encore, la décision peut devenir une prévision auto-révélatrice. L’estimation (trop) élevée d’un risque de crédit va donner accès au crédit mais à un taux élevé, ce qui va renforcer le risque de défaut de paiement. Ce qui révèle un problème de sur-représentation de certaines populations dans les jeux de données.

À l’inverse, la sous-représentation d’une population peut tout autant être problématique. Si on manque de données sur certaines catégories d’habitants, alors les systèmes d’IA ne peuvent être pertinents à leur égard. Tel est par exemple le cas des bases de données de reconnaissance d’images qui sont majoritairement composées de personnes blanches : la machine les reconnaît donc aisément, tandis que les photos de personnes de couleur étant présentes en nombre insuffisant, elle se trompe plus facilement. En 2015, le fait que l’algorithme de Google ait pu confondre des images d’Afroaméricains avec des gorilles a évidemment beaucoup choqué.

Une prise de conscience internationale

Conscients de ces difficultés, le Canada et la France ont adopté une Déclaration commune en juin 2018, dans laquelle ils affirment vouloir œuvrer pour une intelligence artificielle éthique, responsable, centrée sur l’humain et respectueuse des droits de la personne dans la lignée du rapport du député et mathématicien Cédric Villani. Ces deux pays œuvrent pour la constitution d’un Groupe international d’experts en intelligence artificielle (le G2IA).

Dans son communiqué sur « L’intelligence artificielle pour l’Europe » du 25 avril 2018, la Commission européenne a elle aussi proclamé sa volonté d’encourager des principes éthiques de l’IA. Des lignes directrices en matière d’éthique pour une IA digne de confiance ont été adoptées en juin 2018 par le Groupe d’experts de haut niveau sur l’IA constitué par la Commission européenne.

Quant à l’OCDE, elle a adopté cinq principes en mai 2019 : ils envisagent que l’intelligence artificielle soit au service des intérêts de la planète et des individus, et qu’ils soient conçus dans le respect de l’État de droit, des droits de l’homme, des valeurs démocratiques et de la diversité. Ils évoquent également la nécessité de leur transparence, de leur sécurité et d’un contrôle en amont de ces systèmes.

L’adoption de ces principes éthiques souligne une préoccupation naissante chez les législateurs. Mais concrètement, est-il possible d’y soumettre les algorithmes ? Le problème majeur est qu’une discrimination algorithmique est le plus souvent systémique et non-intentionnelle : leurs biais sont donc particulièrement difficiles à prouver et à expliquer au juge, a fortiori lorsque les algorithmes utilisés fonctionnent comme des « boîtes noires ».

Rééduquer les algorithmes

Au sein de la Chaire de recherche « Droit, responsabilité and confiance sociale dans l’intelligence artificielle » du nouvel institut d’IA à Toulouse, nous cherchons à vérifier que les exigences légales dans la conception et l’utilisation des outils d’IA sont bien respectées.

Nous avons pour cela recours à différents critères mathématiques, afin de détecter des biais algorithmiques, comme la méthode de l’impact disproportionné par exemple. Elle s’applique aux groupes minoritaires protégés selon les critères légaux de discrimination, en comparaison des groupes non protégés. L’idée est de comparer la probabilité que la décision soit positive, sachant que le groupe est protégé, en comparaison avec la probabilité que la décision soit positive pour le groupe non protégé. La note de 1 représente le fait qu’il n’y ait pas de différence de résultat entre les deux cas. En deçà, il y aura une différence mais encore faut-il déterminer à quel seuil on estime que la discrimination, sanctionnée par la loi, est caractérisée.

Un des objectifs de la chaire est de rechercher des méthodes qui permettent un certain niveau d’explication des décisions prises ou aide à la décision algorithmique. Par exemple, il s’agirait de comprendre les raisons pour lesquelles un crédit est refusé à un client. Cette exigence permet à la personne concernée de connaître les motivations de la décision, de vérifier qu’elle est loyale (nondiscriminante) et de pouvoir la contester en justice. Les enjeux sont majeurs pour assurer le respect des droits fondamentaux et des garanties procédurales des individus. De nombreuses méthodes sont envisagées en recherche mais il faut encore améliorer leur efficacité et pouvoir attester la qualité du résultat. Ces outils mathématiques seront utiles au juge pour évaluer si la décision, qu’elle soit humaine, algorithmique ou les deux, a été prise dans le respect de la loi.

À l’inverse, le droit peut servir la technique, afin de consolider des algorithmes grâce à un dispositif de certificabilité. Ses critères et conditions de mise en œuvre doivent encore être déterminées et varieront probablement selon les secteurs d’activité et la criticité de la décision. En cas de taux d’erreur élevé, les conséquences ne sont pas les mêmes qu’il s’agisse d’évaluer un algorithme de publicité ou s’il s’agit d’un algorithme qui aide à reconnaître les tumeurs sur les images médicales.

Notre objectif est de créer un cadre de confiance pour les individus sur la façon dont les systèmes d’IA sont conçus et utilisés. L’acceptabilité sociale est une condition sine qua non à un déploiement réussi d’IA, au service des individus et dans le respect de leurs droits fondamentaux. C’est à ce prix que l’on garantira une IA responsable et inclusive.