Menu Close

Des IA pour recruter : mais qu’en pensent les candidats ?

De nombreuses entreprises font déjà appel à des algorithmes pour trier les CV. Shutterstock

L’intelligence artificielle (IA) transforme le secteur de la gestion des ressources humaines plus rapidement que nous ne l’imaginons. Soixante-cinq pour cent des organisations utilisent déjà des outils basés sur l’IA dans les processus de recrutement. Seulement un tiers des candidats pourtant pensent que l’IA est utilisée pour analyser leur profil.

En matière de recrutement, les outils fondés sur l’IA ont la capacité de collecter de grandes quantités de données au sein d’une entreprise ou d’une institution afin de rechercher, d’identifier, d’évaluer, de classer et de sélectionner les candidats à un poste. Ils peuvent systématiquement recueillir des informations sur les besoins en matière de recrutement au sein des équipes, générer des offres d’emploi avec les caractéristiques des candidats modèles pour pourvoir ces postes vacants, et repérer rapidement les candidats adéquats à partir de diverses plates-formes numériques.

Dès le départ, les outils fondés sur l’IA promettaient davantage d’efficacité dans le traitement d’un grand nombre de documents provenant des candidats. Les concepteurs affirmaient également pouvoir réduire les biais décisionnels des personnes travaillant aux ressources humaines qui pourraient, intentionnellement ou non, discriminer ou traiter injustement certaines des candidatures.

De nouvelles analyses suggèrent toutefois que cela n’est pas toujours le cas. Des algorithmes discriminent encore certains candidats qui peuvent ne pas correspondre au modèle historique de la description d’un poste. Sont parfois exclus les femmes (notamment dans les domaines « STIM – science, technologie, ingénierie et mathématiques ») ou ceux qui ont des lacunes dans leur CV en raison d’une maladie, d’un handicap, de la prise en charge d’un membre de la famille, du chômage ou d’une peine de prison.

Plusieurs grandes entreprises, dont Apple, IBM et Microsoft, ont été mises en cause pour des manquements à l’éthique dans l’utilisation de l’IA, notamment en ce qui concerne la discrimination fondée sur le genre. Même si ces cas d’outils biaisés involontairement ont été corrigés, d’autres biais non détectés peuvent continuer à sévir.

Apparaître comme éthique rend attractif

Le marché des technologies liées aux ressources humaines devrait atteindre près de 40 milliards de dollars d’ici 2029, l’IA étant au premier plan de ces technologies visant à accroître l’efficacité et la rentabilité. Près de 80 % des recruteurs pensent que les humains ne seront bientôt plus nécessaires dans le processus d’embauche.

Mais que pensent les candidats de pareils outils ? Font-ils confiance aux organisations qui les utilisent pour le recrutement ? Nous avons abordé ces questions dans deux publications récentes du prestigieux Journal of Business Ethics. Nous y avons cherché à comprendre les perceptions individuelles quant à l’éthique de l’utilisation de l’IA à travers toute la gamme de méthodes utilisées dans le processus de recrutement. En particulier, nous avons cherché à savoir si l’utilisation de l’IA dans le processus de recrutement influence la confiance que les demandeurs d’emploi et les personnes ayant une expérience du recrutement accordent aux organisations qui utilisent des outils d’IA, et s’ils considèrent ces organisations comme attractives et innovantes. Cela, à notre connaissance, restait peu étudié.

Nos recherches mettent en lumière que les considérations éthiques des individus ne sont pas à négliger. Le fait que des candidats à l’emploi perçoivent l’utilisation de l’IA dans le recrutement comme éthique détermine s’ils identifient l’organisation en question comme digne de confiance ou même attractive et innovante, c’est-à-dire comme un employeur potentiel.

Ces perceptions varient en fonction des valeurs personnelles, des expériences passées et de l’acceptation de la technologie. Elles changent également en fonction des contextes et des applications. Par exemple, alors qu’une personne pourrait faire confiance à l’efficacité de l’IA pour prédire ses préférences cinématographiques, des études montrent que la plupart des individus préféreraient encore un humain ou une collaboration entre l’être humain et l’IA pour décider de l’évolution de leur carrière.

Protéger la vie privée d’abord

Dans le premier de nos travaux, nous avons constaté que les candidats qui perçoivent l’IA dans le processus d’embauche comme très efficace sont plus susceptibles de faire confiance aux organisations qui l’utilisent. Considérer une IA comme efficace, c’est par exemple penser qu’elle a la capacité de vérifier si leur CV correspond bien à la description du poste.

Il y a toutefois des limites à cela. Si les organisations utilisent des outils fondés sur l’IA pour des méthodes de recrutement plus intrusives, telle qu’analyser l’activité des candidats sur les médias sociaux pour y déceler des traits de caractère ou encore examiner minutieusement des comportements non verbaux lors d’un entretien vidéo, la confiance accordée par les individus envers l’organisation va décroissant. Dans ce dernier cas, l’efficacité et l’optimisation précédemment accordées à l’IA passent au second plan, derrière l’importance de la protection de la vie privée.

Dans un second temps, nous avons constaté que plus les perceptions éthiques de l’utilisation de l’IA dans le recrutement sont élevées, plus la personne trouve l’organisation innovante et attractive. Les candidats qui estiment qu’il est éthique pour une organisation d’utiliser l’IA pour analyser leurs données les plus privées, comme leurs réseaux sociaux ou un entretien audio pour des indicateurs verbaux, percevront également cette organisation comme étant à la fois innovante et attractive. A contrario, les personnes qui ont des perceptions éthiques plus faibles percevront l’organisation qui utilise l’IA comme moins innovante ou moins attractive.

Un équilibre pour l’avenir

Une collaboration efficace entre les humains et les robots est déjà en cours dans divers secteurs. La recherche rattrape enfin son retard aux développements de l’IA dans les ressources humaines. Des études récentes suggèrent que les candidats préfèrent encore être soumis à une décision humaine, ou à une collaboration entre l’homme et l’IA, plutôt que de voir leur sort influencé par une IA autonome. Par exemple, de nouvelles études révèlent que les candidats qui ont fait l’objet d’une décision autonome de l’IA ont l’impression de ne pas être traités avec dignité ou équité.

Nos propres travaux et les études émergentes montrent que ces perceptions éthiques sont importantes pour les individus. Trouver un équilibre entre l’efficacité et la réduction des coûts des outils d’IA et des systèmes pilotés par l’homme n’est pas une tâche facile dans la pratique, mais c’est un impératif pour l’avenir.

Les organisations doivent adopter une stratégie qui intègre systématiquement les perceptions positives des individus et leurs préoccupations en matière de risques dans leurs outils d’IA pour la gestion des ressources humaines. En effet, la nécessité d’intégrer l’éthique liée à l’IA dans la gouvernance de chaque organisation devient de plus en plus urgente à mesure que l’utilisation de l’IA continue de se développer.

Want to write?

Write an article and join a growing community of more than 182,600 academics and researchers from 4,945 institutions.

Register now