Menu Close
Le numérique ne doit pas être un sujet à part du point de vue de sa gouvernance. Phonlamai Photo/Shutterstock

Gouvernance de l’IA : les outils démocratiques existent déjà, servons-nous-en

Un nouvel entretien autour de l’informatique en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.

Karine Gentelet est professeure agrégée de sociologie au département de sciences sociales à l’Université du Québec en Outaouais et professeure invitée à l’Université Laval. Elle a été en 2020-21 titulaire de la Chaire Abeona – ENS-PSL, en partenariat avec l’Observatoire international sur les impacts sociétaux de l’IA et du numérique. Le titre de sa chaire était « La gouvernance citoyenne pour renverser l’invisibilité dans les algorithmes et la discrimination dans leurs usages ».


Binaire : Peux-tu nous parler du parcours qui t’a conduite notamment à être titulaire de la chaire Abeona ?

Karine Gentelet : Mon profil est multidisciplinaire, avec une formation en anthropologie et en sociologie. J’ai un doctorat en sociologie, mais je préfère me définir par mes thèmes de recherche plutôt que par des disciplines.

Française d’origine, je suis arrivée au Québec il y a plus de trente ans. C’était à une période traumatique de l’histoire du Québec, une grave crise interne, la crise d’Oka. Cela m’a marquée de me retrouver face à des personnes en position de minorité, en difficulté. Je me suis intéressée à la reconnaissance des droits des peuples autochtones, à la façon dont ils mobilisent la scène internationale pour faire reconnaître leurs droits, et à la façon dont ils ont accès à la justice d’une manière large.

Un moment donné, j’ai rencontré quelqu’un qui travaillait pour une communauté extrêmement excentrée au Nord du Québec. Là-bas, quand ils sont arrêtés pour une infraction, les prévenus sont emmenés dans le sud à 6 ou 7 heures de vol d’avion. À cause de la distance, leur famille ne peut plus les voir alors qu’ils sont parfois très jeunes. Pour pallier ce problème, la solution a été d’utiliser la technologie numérique pour déplacer virtuellement le tribunal et l’installer dans le Nord. Cela a redéfini l’espace du procès de façon remarquable : les bancs du juge, des accusés, du procureur, tout change ; les salles d’audience deviennent rondes par exemple. Ces minorités qu’on voit comme vulnérables arrivaient à renverser des rapports de pouvoir, et à redessiner l’espace du procès.

Cela m’a conduite à être impliquée dans des projets de recherche sur les conditions de mise en place d’une cyberjustice. Et c’est ainsi que je suis arrivée à technologie numérique et l’intelligence artificielle (IA pour faire court).

En général, ce qui m’intéresse c’est toujours de regarder l’angle mort, non pas tant ce qui se passe que ce qui ne se passe pas, ce qui n’est pas dit. Prenez des questions de décisions automatisées. J’étudie comment les gens voient le déploiement de ces outils, comment ils aimeraient qu’ils soient déployés. C’est là que mon expérience d’anthropologue me sert, à étudier comment les gens vivent avec ces technologies.

B : La sociologie est typiquement plus dans l’observation que dans l’action ? Est-ce que cela te satisfait ?

KG : Il y a plusieurs types de sociologie et la discipline a évolué. La sociologie devient, selon moi, de plus en plus anthropologique et regarde la société non plus telle qu’elle est, mais avec un point de vue d’altérité, ce qui change le regard. On est dans une perspective beaucoup plus critique qu’avant, beaucoup plus près de l’action. De toute façon, comme je l’ai dit, je ne me vois pas uniquement comme sociologue, mais plutôt dans la pluridisciplinarité.

Pour l’IA, il ne faut pas se cantonner à l’observation de ce qui s’y passe. Il faut comprendre comme on se l’approprie, apporter un regard critique.

B : En quoi les sciences sociales peuvent-elles servir à mieux comprendre l’IA ?

KG : Souvent l’IA est présentée en termes purement techniques. Mais en fait, dans la manière dont elle est déployée, elle a des impacts sociétaux essentiels qu’il faut comprendre et qui nécessitent une perspective de sciences sociales.

Il y a en particulier des enjeux de classification des data sets qui vont nourrir les algorithmes d’IA. Distinguer entre un chat et un chien n’a pas d’impact sociétal critique. Par contre, le classement d’une personne comme femme, homme, non binaire ou transgenre, peut soulever des questions de prestations sociales, voire conduire à la discrimination de certaines communautés, à des drames humains.

Pour un autre exemple, pendant la pandémie, dans certains hôpitaux, les systèmes d’aide au triage tenaient compte des dépenses qui avaient été faites en santé auparavant : plus on avait fait de dépenses en santé dans le passé, moins la santé était considérée comme bonne ; on devenait prioritaire. Cela peut paraitre logique. Mais ce raisonnement ne tenait pas compte d’une troisième dimension, le statut socio-économique, qui conduisait statistiquement à un mécanisme inverse : les personnes socialement défavorisées avaient souvent fait moins de dépenses de santé parce qu’elles ne disposaient pas d’une bonne couverture de santé, et étaient en plus mauvaises conditions.

Une analyse en sciences sociales permet de mieux aborder ce genre de questions.

B : La question se pose aussi pour les peuples autochtones ?

KG : Historiquement marginalisés, les peuples autochtones du Canada ont pris conscience très rapidement de la pertinence des données qui les concernent. Ceci a alors une incidence sur l’importance de ces données dans le fonctionnement des algorithmes. Ce sont des peuples avec une tradition orale, nomade, ce qui a une incidence sur la manière dont ils conçoivent les relations à l’espace, au temps, et à autrui. Pour eux, leurs données deviennent une extension de ce qu’ils sont, et doivent donc rester proches d’eux et c’est pourquoi c’est particulièrement important pour ces peuples autochtones de garder la souveraineté de leurs données. Ils tiennent à ce que leur acquisition, leur classification, leur analyse en général, restent sous leur contrôle. Ils veulent avoir ce contrôle pour que ce que l’on tire de ces données ne soit pas déconnecté de leur compréhension du monde.

B : Est-ce qu’il y aurait un lien épistémologique entre les constructions de données et la compréhension du monde ?

KG : Bien sûr. Les classifications de données que nous réalisons dépendent de notre compréhension du monde.

J’ai coréalisé une étude sur Wikipédia. Le système de classification de la plate-forme entre en conflit avec la perspective de ces groupes autochtones. Pour eux, un objet inanimé a une existence, une responsabilité dans la société. Et puis, la notion de passé est différente de la nôtre. Les ancêtres, même décédés, sont encore dans le présent. La classification de Wikipédia qui tient par construction de notre culture ne leur convient pas.

Ils considèrent plus de fluidité des interactions entre choses matérielles et immatérielles. Pour eux les pierres par exemple ont une agentivité et cela amènerait à une autre représentation du monde. Cela conduirait les algorithmes d’IA à d’autres représentations du monde.

B : Tu veux dire que, pour structurer les données, on a plaqué notre interprétation du monde, alors que celle des peuples autochtones pourrait apporter autre chose et que cela pourrait enrichir notre connaissance du monde ?

KG : Oui. J’ai même un peu l’impression que l’interprétation du monde qu’apportent les peuples autochtones est presque plus adaptée à des techniques comme les réseaux neuronaux que la nôtre à cause de l’existence de liens tenus entre les différentes entités chez eux, dans la fluidité des interactions. Mais je ne comprends pas encore bien tout cela ; cela demanderait d’être véritablement approfondi.

Pour ceux qui ne correspondent pas forcément aux classifications standards de notre société occidentale, cela serait déjà bien d’avoir déjà plus de transparence sur la formation des data sets : comment ils ont été collectés, comment les gens ont consenti, et puis comment les classifications ont été réalisées. C’est véritablement une question de gouvernance des données qui est cruciale pour ceux qui sont minoritaires, qui ne correspondent pas forcément au cadre habituel.

B : Est-ce que selon toi l’IA pourrait être une menace pour notre humanité, ou est-ce qu’elle pourrait nous permettre d’améliorer notre société, et dans ce cas, comment ?

KG : On essaie de nous pousser à choisir notre camp. L’IA devrait être le bien ou le mal. Les technophiles et l’industrie essaient de nous convaincre que c’est beau, bon, pas cher, et que ça va améliorer le monde. Pourtant, cela a clairement des impacts négatifs sur certains groupes au point que leurs droits fondamentaux peuvent être à risque. Pour moi, l’IA, c’est comme souvent dans la vie, ni blanc ni noir, c’est plutôt le gris. Mais, si je ne vois pas dans l’IA une menace de notre mode de vie, je crois qu’il y a besoin d’une vraie réflexion sociétale sur les impacts de cette technologie. En fait, je me retrouve à accompagner certains groupes sur leur compréhension des impacts, et souvent les impacts sont négatifs.

Il faut cesser de se bloquer sur la question de choisir son camp, pour ou contre l’IA, et travailler à comprendre et éliminer les impacts négatifs.

L’IA est censée être un progrès. Mais un utilisateur se retrouve parfois dans a situation d’être confronté à une IA imposée, de ne pas comprendre ses décisions automatisées, de ne pas pouvoir les remettre en cause. Le résultat c’est que cela peut amplifier une possible situation de précarité.

Quand j’ai renouvelé mon assurance auto, on m’a proposé une réduction de 15 % si j’acceptais que la compagnie d’assurance traque tout mon comportement au volant. J’ai refusé. Mais d’autres n’auront pas les moyens de refuser. Cela pose la question du consentement et d’une société à deux vitesses suivant ses moyens financiers.

On pourrait multiplier les exemples. Il faut que les citoyens puissent décider ce qu’on fait avec les algorithmes, et en particulier ceux d’IA.

B : La notion de gouvernance des algorithmes est centrale dans ton travail. Comment tu vois cela ?

KG : Le discours institutionnel à la fois des acteurs privés et des acteurs publics parle de la gouvernance de l’IA comme s’il y avait une dichotomie entre gouvernance de la société et gouvernance de IA, comme s’il y avait une forme d’indépendance entre les deux. L’IA est un outil et pas une entité vivante, mystérieuse et incompréhensible, qui flotterait au-dessus de la société. Je ne comprends pas pourquoi on devrait réinventer la roue pour l’IA. Nous avons déjà des principes, des pratiques de gouvernance, des lois, des représentants élus dans la société, etc. Pourquoi l’IA aurait-elle besoin d’autre chose que de structures existantes ?

On voit arriver des lois autour de l’IA, comme l’« Artificial Intelligence Act » de l’Union européenne, cela me pose problème. S’il y a des enjeux importants qui amèneront peut-être un jour des modifications en termes de régulation, il n’y a pas de raison d’autoriser à cause de l’IA des atteintes ou des risques sur les droits humains. À qualifier un droit spécifique pour l’IA, on risque de passer son temps à courir derrière les progrès de la techno.

Le problème vient de la représentation anthropomorphique qu’on a de ces technologies, la place que l’on donne à l’IA, la sacralisation qu’on en fait. Les décideurs publics en parlent parfois comme si ça avait des pouvoirs magiques, peut-être un nouveau Dieu. Il faut sortir de là. C’est juste une technologie développée par des humains.

Le point de départ du droit qui s’applique pour l’IA devrait être l’impact sur les êtres humains. Il n’y a aucune raison de sacraliser le fait qu’on parle de numérique. C’est avant tout un problème de droits humains. Alors, pourquoi faudrait-il inventer plutôt que d’utiliser les outils qui sont déjà là.

Want to write?

Write an article and join a growing community of more than 182,300 academics and researchers from 4,942 institutions.

Register now