Menu Close

Chronique juri-geek

La manipulation secrète des utilisateurs d’Uber dévoilée par des lanceurs d’alerte

Vrai ou fausse voiture ? Mark WarnerFlickr, CC BY

Quel point commun discernez-vous entre Volkswagen, Facebook et Uber ? Ces entreprises utilisent le code informatique pour violer la loi, donc nuire aux usagers, et ce en toute impunité jusqu’à ce qu’un lanceur d’alerte ou une autorité porte l’information publique.

Tromperie, censure et discrimination : quelle éthique pour les réseaux sociaux et les applications mobiles ?

Quelle est la différence entre optimiser les émissions polluantes de véhicules automobiles lors des cycles d’homologation et appliquer un algorithme pour sélectionner des contenus sur un réseau social ou une application mobile ? Aucune : dans les deux cas, la donnée est choisie, triée, écrémée… Pourquoi ? Éviter des poursuites judiciaires, afficher des résultats flatteurs aux clients pour les maintenir captifs des produits et services, avec une conséquence immorale : tromper les autorités, les utilisateurs et les différencier pour mieux les discriminer.

Uber a reconnu avoir trompé ses utilisateurs depuis 2014 grâce à un programme appelé « Greyball » présentant une fausse carte et des voitures fantômes à ceux que la société identifiait comme étant ses « opposants ». La société leur affiche aussi une « autre version » de la réalité afin que ses employés testent des fonctionnalités ou encore dissuadent ces utilisateurs méprisables qui osent utiliser l’application en violation des conditions générales, le tout avec l’aval de son service juridique.

Pour vous, vraiment ? Adam Fagen/Flickr, CC BY-NC-SA

Les informations et documents ont été révélés par quatre lanceurs d’alerte, employés d’Uber. La société avait créé un périmètre géographique virtuel autour des bâtiments officiels de Portland et traqué l’activité de son application pour garder à l’œil les utilisateurs. Elle avait étiqueté comme opposant Mr. England, représentant de la ville de Portland, où l’application n’avait pas été approuvée : elle lui a présenté une fausse version de l’application pour éviter d’être poursuivie. Comment avait-elle identifié Mr. England ? Très simple : 60 employés d’Uber analysent en permanence les mouvements bancaires sur le secteur et croisent les données avec celles publiées sur les réseaux sociaux et Internet (d’où l’expression « testent des fonctionnalités »). Les employés s’étaient aussi rendus dans les boutiques de téléphones mobiles dans ce même périmètre pour repérer les modèles les moins chers et leurs numéros de série : rappelez-vous que l’identifiant de l’interface de navigation est collectée automatiquement par l’application… ! Ainsi, la société montrait à tous ses opposants une fausse version de l’application, avec des véhicules fantômes, ou pas de véhicule du tout !

Mais il ne s’agit pas d’une simple procédure validée par les juristes d’Uber… Il s’agit de sauvegarder les profits de la société. Les autorités nationales quant à elles, tentent de protéger les usagers en s’assurant que les chauffeurs respectent la réglementation locale à des fins de sécurité.

Des développeurs omnipotents, sans foi ni loi

Le numérique est clairement utilisé pour avoir des conséquences dans le monde physique : orienter vos comportements, vos décisions, vos achats, échapper aux contrôles des autorités et à des poursuites judiciaires… Protection du modèle économique de la société versus obstruction à la justice et tromperie des utilisateurs : l’analyse des risques est vite faite. Dans le SWOT de la société Uber, l’équilibre entre les opportunités et les menaces est reflété par un algorithme toxique pour la sécurité de ses clients.

L’annonce que Facebook traque les faux comptes faisant circuler des fake news, comme les faux messages viraux sur les réseaux sociaux (click bait) sonnent aussi faux quand on sait que son algorithme n’a rien de neutre ! Les blocs apparaissant sur le mur de votre page correspondent à une sélection générée par vos mentions « j’aime » et vos propres posts, recoupés avec vos données sur Instagram et Whatshapp, plus toutes celles librement disponibles sur le net. D’ailleurs, en mars 2016 Instagram a annoncé qu’elle sélectionnera ses contenus qui ne seront plus présentés de manière chronologique mais selon un algorithme qui affichera aux utilisateurs ce qui est le plus susceptible de les intéresser.

Un algorithme pour contourner la loi est-il légal ?

Nous savons nos données malléables, les équipes d’analyse maligne des données comportementales à des fins de marketing ciblé s’en donnent à cœur joie sur les plateformes de données consommateurs. Mais avec l’affaire Uber, un pas a été franchi : ces mégadonnées générées par les applications, les objets connectés et la navigation Internet sont autant de leviers de discriminations entre les mains des entreprises qui choisissent leurs clients et donc en excluent une partie de façon indécelable.

Quelles applications et sites web sont dignes de confiance ? Comment être sûr de ne pas se faire berner ? De ne pas cliquer sur le piège ? Laisser les limites de l’envahissement technologique aux mains de sociétés privées ne semble pas être l’idée du siècle. Avec l’apparition de nouveaux modèles économiques, la frontière de la légalité a été mise à mal une première fois, amenant les autorités nationales ou locales à « négocier » le respect de la loi avec ces entreprises dites innovantes. Aujourd’hui, c’est l’utilisation du code informatique par ces mêmes entreprises qui est questionnée. Il nous faut davantage légiférer sur les algorithmes, opérer des contrôles et donc attribuer les moyens techniques et humains à la hauteur des prétentions des ennemis de l’éthique pour assurer la protection de chacun.

Want to write?

Write an article and join a growing community of more than 180,400 academics and researchers from 4,911 institutions.

Register now