Menu Close
Le déploiement avec succès d’outils numériques en contexte de pandémie commande leur intégration dans une politique et une stratégie inclusives. Shutterstock

Trois conditions pour des outils numériques plus responsables en contexte d’urgence sanitaire

Plusieurs solutions technologiques ont été conçues pour répondre à l’urgence sanitaire provoquée par la pandémie de Covid-19. Mais ces nouveaux outils numériques, que ce soit l’application Alerte Covid, les outils de gestion de l’information, de soins à distance ou d’autosoins ou encore ceux facilitant le télétravail et l’apprentissage en ligne soulèvent de nombreuses questions éthiques.

C’est dans ce contexte que notre groupe de chercheurs, membres de l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle (IA) et du numérique (OBVIA), a mis en place dès le mois d’avril 2020, un comité de travail pour réfléchir aux effets sur nos sociétés des outils numériques et des systèmes d’intelligence artificielle (SIA) qui ont été conçus ou mobilisés pour lutter contre la propagation de la Covid-19.

Est-ce que tous ces outils technologiques ont un coût en termes de droits fondamentaux et apportent un bénéfice social en matière de santé publique ? Ce sont quelques-uns des enjeux qui ont émergé et auxquels s’ajoutent l’innovation responsable, l’inclusion des populations marginalisées, la désinformation, la santé, le télétravail et l’éducation.

Notre groupe de travail a produit neuf rapports d’analyse et de recommandations mettant en commun les expertises de juristes, de sociologues, d’éthiciens, de spécialistes des sciences et des technologies, de la santé publique, des sciences politiques et de la communication. La synthèse de ces travaux a permis de formuler trois recommandations pour un développement et une utilisation responsables d’outils numériques en contexte de pandémie :

1) Éprouver l’efficacité, la fiabilité et les avantages

Avant de déployer un outil numérique, il convient de soupeser les avantages et inconvénients de la technologie en question et aussi de démontrer son efficacité.

L’urgence de contrer la pandémie ne doit pas faire perdre de vue aux décideurs publics que les retombées sociales plausibles des avancées actuelles en intelligence artificielle suivront les « sentiers » technologique et commercial qui ont été tracés avant la pandémie. Ainsi, les développements technologiques passés peuvent avoir une incidence sur les solutions développées aujourd’hui, qui auront elles-mêmes un impact sur celles qui seront développées et déployées dans le futur.

Il nous apparaît alors important d’engager les parties prenantes concernées dans la mise au point de ces outils de manière transparente et inclusive, afin de concevoir ensemble des solutions éthiquement acceptables, socialement souhaitables et durables sur le plan environnemental.

À cet effet, lors des projets pilotes il est important de veiller à ce que l’échantillon de personnes soit représentatif de toutes les populations concernées : il est fort probable par exemple que l’échantillon ne contienne pas de données des populations plus âgées ou défavorisées qui sont les plus susceptibles d’être touchées par le virus.

Cette prise en considération manifeste un souci éthique et une volonté d’innover de façon responsable. Les développeurs d’outils numériques doivent mobiliser dans leurs efforts de conception les multiples savoirs et atouts que possède une société diversifiée. Ils faciliteraient ainsi la pertinence et les chances de succès de leur innovation. Il importe pour les décideurs et la société civile de savoir dans quelles mesures les innovations pourront réaliser, en pratique, ce que leurs promoteurs prétendent et anticiper certaines conséquences de leur utilisation et de leur déploiement à large échelle.

2) Garantir la protection des données

La protection des données et la préservation de la vie privée sont des préoccupations centrales lorsqu’il s’agit de déployer un outil numérique, notamment parce que ces données portent sur l’état de santé des personnes et contiennent, potentiellement, leur âge, leur genre, et leur historique de contacts ou de déplacements. Cela implique de développer des outils qui soient robustes sur le plan de la sécurité, mais qui parviennent aussi à l’équilibre délicat entre la protection des renseignements personnels et la nécessité, dans le contexte actuel de crise sanitaire, d’utiliser ces données pour combattre la pandémie.


Read more: Covid-19: les dérives possibles de surveillance des données personnelles


Les cadres juridiques et éthiques qui encadrent le déploiement des technologies doivent prendre en compte non seulement le droit à la vie privée, mais aussi l’ensemble des droits garantis par les chartes canadienne et québécoise, en particulier le droit à l’égalité. Il est important d’évaluer les implications de telles technologies à la lumière de leurs finalités, mais également en fonction de leurs usages concrets, car elles peuvent avoir des effets discriminatoires directs comme indirects sur certaines catégories de personnes.

Par exemple, toute une frange de la population qui n’a pas accès aux téléphones intelligents peut se retrouver discriminée si l’utilisation d’une application de notification est exigée pour entrer dans certains lieux publics ou d’avoir accès en priorité à des tests de dépistages.

Malgré les exigences légitimes de santé publique, les considérations éthiques telles que la protection des données dès la conception ou la minimisation des données constituent une des clefs pour orienter l’élaboration de solutions technologiques à la crise sanitaire, tout en cherchant un équilibre entre la protection de la santé et celle de la vie privée.

3) Inspirer et mériter la confiance

La plupart de nos recherches montrent qu’il est essentiel de consulter les différentes parties prenantes lors de la conception et de la mise en place de solutions technologiques. Le succès relatif des applications de notification de contact, tant au Canada qu’ailleurs dans le monde, a mis en évidence la nécessité d’informer la population sur l’utilité et les enjeux sous-jacents, de même que sur l’alignement et l’intérêt qu’ont ces outils pour les professionnels de la santé publique eux-mêmes.

En effet, le développement technologique ne doit pas reposer uniquement sur les expertises des développeurs et des décideurs publics. Il doit aussi inclure des expertises en santé publique et en sciences sociales notamment. En ce sens, la participation et l’approbation des acteurs de la santé publique à la conception et à l’activation des mesures est fondamentale. De plus, les connaissances sur lesquelles s’appuie la prise de décision doivent provenir de plusieurs sources (gouvernement, praticiens et praticiennes, société civile) afin de dépeindre un portrait global de la problématique.

Il est tout aussi important de consulter les populations concernées par ces solutions, ainsi que les organismes qui les représentent, afin de déterminer leurs besoins et priorités, ainsi que le type de technologie à privilégier le cas échéant. Ces préoccupations visent à s’assurer que les outils numériques inspirent la confiance, et cette confiance exige la transparence et des explications accessibles sur leur pertinence.

Modèle d’analyse pour le développement et l’utilisation responsables des outils numériques en contexte de pandémie. Auteurs., Author provided

Le déploiement avec succès d’outils numériques en contexte de pandémie commande leur intégration dans une politique et une stratégie inclusives. Afin d’y arriver, ceux qui développent des outils numériques dans le contexte actuel doivent avoir la capacité d’instaurer une démarche intersectorielle et interdisciplinaire robuste et continue. Ceci doit se faire en amont du développement.

Une démarche collaborative permet aux développeurs d’apparier la « bonne » solution au « bon » problème tout en optimisant la capacité de cette solution de s’adapter à une grande variété d’utilisateurs. Par voie de conséquence, une démarche inclusive évite aux développeurs de s’attarder à des problèmes mal définis, peu prioritaires, et permet de bâtir la confiance.

Sans cette collaboration, le risque pour les développeurs est de travailler sur des solutions qui renforcent des logiques propres à leur discipline ou qui sont fondées sur une méconnaissance des besoins et pratiques des utilisateurs, avec un risque d’inefficacité et d’inefficience technologiques.

Le principe d’inclusion suggère d’élargir les perspectives recueillies quant aux forces et faiblesses de différents scénarios de solutions. Ceci inclut les citoyens qui soutiennent le développement d’innovations en tant que contribuables et qui sont exposés à leurs avantages et risques en tant qu’utilisateurs.

En terminant, il est essentiel de discerner les présupposés socio-économiques des solutions fondées sur l’IA et le numérique en créant des espaces de discussion inclusifs qui représentent la nature hétérogène de la société. Cette démarche d’inclusion intersectorielle est le fondement d’une plus grande acceptabilité sociale et pourrait renforcer la confiance et l’essor de l’utilisation de ces outils numériques.

Les auteur·e·s tiennent à remercier Émilie Guiraud, auxiliaire de recherche à l’OBVIA, pour son aide dans la rédaction et la recherche.

Want to write?

Write an article and join a growing community of more than 182,100 academics and researchers from 4,941 institutions.

Register now