Menu Close
une femme tenant un téléphone portable qui scanne son visage.
Les technologies de reconnaissance faciale sont plus courantes qu'on ne le pense. (Shutterstock)

Notre utilisation occasionnelle des outils d’analyse faciale peut mener à des applications plus sombres

Le 14 décembre, les gouvernements de la Colombie-Britannique, de l’Alberta et du Québec ont ordonné à l’entreprise de reconnaissance faciale Clearview AI d’arrêter de recueillir les images de personnes obtenues sans leur consentement, et de les supprimer. Les discussions concernant les risques des systèmes de reconnaissance faciale qui utilisent des technologies d’analyse automatisée du visage portent généralement sur les entreprises, les gouvernements nationaux et l’application de la loi. Mais le plus inquiétant est la façon dont la reconnaissance et l’analyse faciales ont été intégrées à notre quotidien.

Amazon, Microsoft et IBM ont arrêté de fournir des systèmes de reconnaissance faciale aux services de police après que des études aient révélé la présence de préjugés algorithmiques qui entraînent d’innombrables erreurs d’identification chez les personnes de couleur, en particulier les personnes noires.


Read more: Comment l’intelligence artificielle reproduit et amplifie le racisme


Facebook et Clearview AI se sont heurtés à des poursuites et à des règlements pour avoir établi des bases de données à partir de milliards de modèles de visages sans obtenir le consentement des personnes visées.

Au Royaume-Uni, la police fait face à une enquête minutieuse pour son utilisation de la reconnaissance faciale en temps réel dans les espaces publics. En Chine, le gouvernement suit les membres de la minorité ouïgoure au moyen de technologies de balayage de visage.

Mais pour saisir l’ampleur et l’impact de ces systèmes, il faut aussi se pencher sur les pratiques courantes des utilisateurs du grand public qui appliquent de façon routinière le balayage et l’analyse faciaux, contribuant ainsi à l’érosion de la vie privée et à la hausse de la discrimination raciale et du racisme.

Enquête de PBS sur les problèmes de vie privée et de préjugés liés à la reconnaissance faciale.

En tant que chercheur sur les pratiques visuelles des médias mobiles et leur rapport historique avec les inégalités sociales, j’explore régulièrement en quoi les actions des utilisateurs peuvent établir ou changer les normes concernant des sujets comme la vie privée et l’identité. Dans ce contexte, l’adoption et l’utilisation de systèmes et de produits d’analyse faciale dans notre quotidien pourraient atteindre un point charnière dangereux.

Balayages faciaux quotidiens

Les algorithmes libres qui détectent les caractéristiques faciales rendent l’analyse ou la reconnaissance faciales facile à ajouter pour les développeurs d’applications. Nous utilisons déjà la reconnaissance faciale pour déverrouiller nos téléphones ou pour payer des biens. Les caméras vidéo intégrées aux téléphones intelligents utilisent la reconnaissance faciale pour identifier les visiteurs ainsi que personnaliser les affichages à l’écran et les rappels audio. La fonction de mise au point automatique des caméras de cellulaires inclut la détection et le suivi du visage, tandis que le stockage infonuagique des photos génère des albums et des diaporamas thématiques en trouvant et en regroupant les visages qu’il reconnaît dans les clichés que nous prenons.

L’analyse faciale est utilisée par de nombreuses applications, y compris les filtres et accessoires des médias sociaux qui produisent des effets comme le vieillissement artificiel ou l’animation des traits du visage. Les applications d’autoamélioration et de prévisions pour la beauté, l’horoscope ou la détection de l’ethnicité génèrent également des conseils et des conclusions en fonction de balayages faciaux.

Mais l’utilisation des systèmes d’analyse faciale pour l’horoscope, les égoportraits ou l’identification de personnes peut avoir des répercussions sociétales à long terme : elle peut en effet faciliter une surveillance et un suivi à grande échelle tout en maintenant les inégalités sociales systémiques.

Risques potentiels

Lorsqu’elles sont répétées dans le temps, ces utilisations, caractérisées par un faible risque et une gratification instantanée, peuvent nous habituer de façon plus générale au balayage facial, ouvrant la porte à des systèmes plus vastes appliqués dans différents contextes. Or, nous n’avons aucun contrôle – et très peu d’information – sur les personnes qui dirigent ces systèmes et sur la façon dont les données sont utilisées.

Si nous soumettons déjà notre visage à un examen automatisé, non seulement avec notre consentement, mais en plus avec notre participation active, il ne nous semblera pas particulièrement intrusif d’être assujettis à des balayages et analyses semblables lorsque nous nous déplaçons dans des espaces publics ou que nous accédons à des services.

En outre, notre utilisation personnelle des technologies d’analyse faciale contribue directement au développement et à la mise en œuvre de systèmes élargis destinés à suivre la population, à créer des classements de clients ou à établir des bassins de suspects lors d’enquêtes. Les entreprises peuvent recueillir et partager les données qui lient nos photos à notre identité, ou constituer de plus grands ensembles de données afin d’apprendre aux systèmes d’IA à reconnaître les visages ou les émotions.

Même si nous utilisons une plate-forme qui restreint ce genre d’usages, les produits partenaires peuvent ne pas avoir à respecter les mêmes restrictions. Le développement de nouvelles bases de données de personnes peut être lucratif, en particulier si ces bases de données comprennent un grand nombre d’images faciales de chaque utilisateur, ou si elles peuvent associer des images à des renseignements personnels, comme des noms de compte d’utilisateur.

Profilage numérique pseudoscientifique

Ce qui est peut-être encore plus troublant est que notre acceptation croissante des technologies d’analyse faciale contribue à la façon dont celles-ci déterminent non seulement l’identité d’une personne, mais aussi son milieu, sa personnalité et sa valeur sociale.

Cartographie numérique d’un visage souriant
Les technologies d’analyse faciale qui prédisent des caractéristiques comme l’ethnicité et la beauté reposent sur des principes pseudoscientifiques. (Shutterstock)

Nombre d’applications de prédiction et de diagnostic effectuent un balayage du visage pour déterminer l’ethnicité, la beauté, le bien-être, les émotions et même le potentiel salarial en se basant sur les pseudosciences historiques et troublantes de la phrénologie, de la physionomie et de l’eugénisme.

Ces systèmes interreliés se fondaient sur différents degrés d’analyse faciale pour justifier les hiérarchies raciales, l’esclavage, la stérilisation forcée et l’incarcération préventive.

Notre utilisation des technologies d’analyse faciale peut perpétuer ces croyances et préjugés en donnant l’impression qu’elles ont une place légitime dans la société. Cette complicité peut par la suite justifier la mise en place de systèmes semblables d’analyse faciale automatisée pour trier les candidats à un poste ou déterminer la criminalité, par exemple.

Bâtir de meilleures habitudes

La régulation entourant la collecte, l’interprétation et la distribution de données biométriques par les systèmes de reconnaissance faciale n’est pas aussi rapide que notre utilisation quotidienne du balayage et de l’analyse faciaux. Les politiques se sont un peu améliorées en Europe et dans certaines parties des États-Unis, mais une réglementation plus rigoureuse est nécessaire.

Par ailleurs, nous devons confronter nos propres habitudes et suppositions. En quoi nous mettons-nous et les autres, en particulier les populations marginalisées, à risque en banalisant une telle analyse par les machines ?

La mise en place de quelques ajustements simples pourrait nous aider à mieux aborder l’effrayante intégration des systèmes d’analyse faciale à notre quotidien. Il serait bon de commencer par changer les réglages d’applis et d’appareils afin de minimiser les balayages et partages. Avant de télécharger une appli, faites des recherches à son sujet et lisez-en les conditions d’utilisation.

Résistez à la brève excitation d’essayer la toute dernière mode d’effet facial dans les médias sociaux – avons-nous vraiment besoin de savoir à quoi on ressemble comme personnage Pixar ? Repensez-y avant d’utiliser des appareils intelligents équipés de technologies de reconnaissance faciale. Ayez conscience des droits des personnes dont l’image pourrait être prise par un appareil domestique intelligent ; vous devriez toujours obtenir le consentement explicite des personnes qui passent devant l’objectif.

S’ils se multiplient parmi les utilisateurs, les produits et les plates-formes, ces petits changements peuvent protéger nos données et nous donner du temps pour mieux réfléchir aux risques, aux avantages et au déploiement justifié des technologies de reconnaissance faciale.

This article was originally published in English

Want to write?

Write an article and join a growing community of more than 182,600 academics and researchers from 4,945 institutions.

Register now