Menu Close
Avant de miser sur les algorithmes afin de protéger la santé publique, nous devrions entamer une réflexion démocratique sur la notion de consentement. shutterstock

Applications de traçage : il faut réfléchir à la notion de consentement

Un débat fait rage depuis que les membres de l’Institut québécois d’intelligence artificielle (Mila) ont annoncé qu’ils sont sur le point de lancer une application de traçage contre le coronavirus. S’ils ont été à proximité d’une personne souffrant du virus, les utilisateurs de COVI – le nom donné à l’application de Mila – recevront des recommandations qui leur permettront de mieux planifier leurs interactions sociales ou encore de se faire tester.

Puisque l’application collectera des données personnelles sur ses utilisateurs, certains journalistes et universitaires s’inquiètent néanmoins du fait qu’elle risque de bafouer le droit à la vie privée de ses utilisateurs, et même participer du « capitalisme de surveillance ».

Le 22 mai dernier, la chroniqueuse Aurélie Lanctôt attirait notre attention sur ce concept popularisé par Shoshana Zuboff, professeure émérite à la Harvard Business School. Plus récemment, le criminologue Benoît Dupont le mentionnait dans les pages de La Conversation au cours d’une réflexion sur les dérives possibles de surveillance des données personnelles.


Read more: Covid-19: les dérives possibles de surveillance des données personnelles


Selon Zuboff, les géants du Web emploient aujourd’hui l’intelligence artificielle afin de collecter massivement des données sur leurs utilisateurs dont ils parviennent ensuite à tirer profit en vendant des publicités ciblées. À l’ère des technologies numériques, la ressource la plus convoitée n’est pas un métal précieux, mais bien l’information personnelle que les internautes transmettent aux entreprises de technologie, et ce bien souvent sans le savoir.

Pas du « capitalisme de surveillance »

Dans la mesure où la vie privée des utilisateurs est aujourd’hui menacée par la collecte massive de données, il m’apparaît judicieux de s’interroger sur la valeur éthique des applications de traçage. Malheureusement, associer Mila au capitalisme de surveillance revient à effacer deux distinctions cruciales entre les pratiques de l’Institut et celles des grandes entreprises technologiques.

Le professeur Yoshua Bengio de l’Université de Montréal, a fondé l’Institut québécois d’intelligence artificielle (Mila) en 1993. Mila travaille activement à développer une application de traçage pour contrer la Covid-19. LA PRESSE CANADIENNE/Graham Hughes

Tout d’abord, comme l’ont récemment expliqué Yoshua Bengio et Marc-Antoine Dilhac dans les pages du Devoir, les données collectées par COVI ne seront pas utilisées à des fins commerciales. Il est donc trompeur de sous-entendre que la logique qui préside au développement de COVI est capitaliste ou marchande. Puisque le code des algorithmes développés par Mila sera en accès libre, l’idéologie de l’Institut se rapproche davantage de l’Open-Source, un mouvement qui accorde la priorité à la collaboration plutôt qu’aux gains pécuniaires.

Réflexion nécessaire sur le consentement

La seconde différence majeure entre le projet de Mila et le capitalisme de surveillance se rapporte à la notion de consentement. Dans ses travaux, Zuboff critique à juste titre ce qu’elle nomme la méthode Google Street View de collecte des données. Cette méthode mène les entreprises technologiques à s’emparer des données de leurs utilisateurs en absence de consentement éclairé. Lorsque Google envoie ses voitures photographier les rues de Montréal, la multinationale américaine ne demande jamais aux piétons s’ils consentent à ce que de tels clichés soient mis en ligne. Pour cette raison, il semble raisonnable de considérer que les droits fondamentaux des membres du public ne sont pas respectés.

Lorsque Google envoie ses voitures photographier les rues de Montréal, la multinationale américaine ne demande jamais aux piétons s’ils consentent à ce que de tels clichés soient mis en ligne. Sur la photo, un voiture de Google arpente les rues de Québec, le 11 septembre 2017. Shutterstock

À l’inverse, Mila planifie demander le consentement des utilisateurs de COVI dans les différentes étapes du partage de leurs informations avec l’application. À première vue, personne ne sera donc surveillé sans le savoir. Malgré ce fait, les réflexions d’Aurélie Lanctôt et de Benoit Dupont soulèvent une question qui demeure sous-théorisée et par les technosolutionnistes et par ceux qui les critiquent. À l’ère du big data, quelles conditions doivent être réunies pour que l’on puisse considérer que les utilisateurs de technologies numériques ont vraiment consenti à la collecte de leurs données personnelles ? Avant de miser sur les algorithmes afin de protéger la santé publique, il me semble en effet que nous devrions entamer une réflexion démocratique sur la notion de consentement.

Par une chaude nuit d’été à Montréal, j’ai tenté de louer un BIXI pour rentrer chez moi. On m’a alors demandé de lire une centaine de pages de conditions d’utilisation sur un petit écran intégré à la station de vélo. Comme il était minuit passé, j’ai immédiatement sauté à la fin du texte et cliqué sur « J’accepte ». Dans cette situation, ai-je donné mon consentement éclairé à la ville de Montréal ? Puisque les applications numériques demandent souvent à leurs utilisateurs d’assimiler une quantité impressionnante d’information en seulement quelques secondes, pouvons-nous raisonnablement estimer que ces derniers donnent leur consentement chaque fois qu’ils acceptent des conditions d’utilisation ?

Les limites des données anonymes

L’une des raisons qui m’incitent à répondre par la négative est que l’utilisateur moyen d’applications numériques ne possède pas toujours les connaissances nécessaires pour comprendre ce à quoi on lui demande de consentir. Mila cherche à rassurer les futurs utilisateurs de COVI en soulignant que leurs données personnelles seront « dé-identifiées ». De manière générale, de telles données ne comportent pas de nom, mais l’Institut prendra-t-il d’autres mesures pour s’assurer que les utilisateurs de son application de traçage ne pourront jamais être identifiés ?

Malheureusement, la dé-identifiation s’accompagne parfois de certains risques. En 2006, Netflix a rendu publiques des données personnelles dé-identifiées dans le cadre d’un concours invitant les membres du public à concevoir un algorithme de recommandation pour ses films. Peu de temps après, des chercheurs de l’Université du Texas ont annoncé qu’ils avaient réussi à joindre de vrais noms à certains profils dé-identifiés. Le mécanisme qui leur a permis de le faire est simple ; si quelqu’un connaît les caractéristiques d’une personne – son nom, son âge, son sexe, son code postal, etc. – et qu’il consulte ensuite un ensemble de données dans lequel un seul profil dé-identifié possède toutes ces caractéristiques, il pourra juger en toute confiance que ce profil est celui de cette personne.

Dans les débats publics entourant l’emploi de technologies émergentes, on prend rarement le temps d’expliquer qu’en science de l’informatique, il existe plusieurs modèles d’anonymat qui garantissent différents niveaux de protection de la vie privée des utilisateurs. Or, tant que les utilisateurs de COVI ne possèdent pas plus de renseignements sur le modèle d’anonymat employé par Mila, il demeurera difficile de considérer que ces derniers consentent à la collecte de leurs données personnelles en toute connaissance de cause. Afin de protéger nos droits fondamentaux, ce dont nous avons avant tout besoin, c’est d’un public éclairé capable de décider pour lui-même quel risque il est prêt à courir.

Want to write?

Write an article and join a growing community of more than 181,000 academics and researchers from 4,921 institutions.

Register now