Menu Close

La directive européenne sur le droit d’auteur impose-t-elle le filtrage des contenus ?

Avenir brumeux sur l'internet européen. Sara Kurfess/Unsplash, CC BY-SA

La nouvelle directive sur le droit d’auteur dans le marché unique numérique (directive DSM) a été adopté définitivement par le Conseil européen le lundi 15 avril dernier.

Dans ce débat législatif extrêmement polarisé, une grande confusion aura régné jusqu’au jour du vote final quant à l’interprétation élémentaire des conséquences d’une des mesures centrales de la directive, l’article 13 (devenu article 17). Alors que ses partisans défendaient un mécanisme nécessaire et équilibré pour assurer un juste partage des revenus de l’exploitation des œuvres sur les plates-formes en ligne, ses détracteurs dénonçaient les dangers pour la liberté d’expression d’une telle banalisation du filtrage algorithmique : l’utilisation de méthodes algorithmiques pour détecter et bloquer certains contenus.

Tâchons d’y voir un peu plus clair.

Un débat sous influence

S’il y a bien un point sur lequel tous les participants au débat sur la nouvelle directive DSM s’accordent, c’est de regretter l’extrême aprêté du débat public sur ces questions, et l’influence disproportionnée des lobbies. Mais malgré tout ce qu’on a pu lire sur l’intensité de la campagne de lobbying menée par les géants du Web, ce seraient bien les représentants des ayants droit et sociétés de gestion collectives qui ont le plus souvent rencontré les membres de la Commission et du Parlement lors du processus législatif, d’après Corporate Europe Observatory.

Au milieu de cette lutte des titans, comme souvent, la grande oubliée fut la voix des utilisateurs ou des petits créateurs, dont les pratiques de « remix » et de ré-appropriations créatives d’œuvres existantes sont à la frange de la légalité dans le régime actuel du droit d’auteur. Ou plutôt, si on parlait d’eux, c’était d’emblée pour les disqualifier, accusés d’être des lobbyistes sous cape à la solde des géants du Web, leurs courriels soupçonnés d’être des spams envoyés par des robots, etc.

Confusion générale à propos du filtrage

La conséquence de tout cela est que le débat sur cette directive a été affecté par une quantité remarquable de confusion, d’informations trompeuses, et bien sûr d’accusations réciproques de « fake news ». Si les opposants de la directive ont été rapides à reprendre le cri de ralliement classique de l’Internet en danger (dont l’efficacité dégressive évoque un peu la fable du garçon qui criait au loup), les partisans de la directive furent loin d’être en reste.

Un point sur lequel la confusion aura régné jusqu’au bout est la question de savoir si la directive imposait ou non la mise en place par les plates-formes de mesures de filtrage a priori pour lutter contre les atteintes au droit d’auteur.

Alors que la proposition initiale de directive élaborée par la Commission mentionnait la possibilité que les plates-formes mettent en œuvre leurs obligations par le biais de « techniques de reconnaissance de contenu », cette expression a été supprimée du texte discuté au Parlement européen, et le rapporteur du dossier a toujours maintenu que la directive « ne prévoit pas de filtres d’upload » (c’est-à-dire pas de filtre opérant au moment de la mise en ligne). Une opinion réitérée par les partisans de la directive, dont le Commissaire européen Günther Oettinger, ou sur le site officiel du Parlement européen.

Que prévoit ce fameux article 17 ?

En un mot, disons seulement que cette disposition prévoit que les plates-formes commerciales de partage de contenu (comme YouTube ou Instagram) devront négocier des accords de licence avec tous les ayants droit des œuvres protégées qui pourraient y être uploadées. Faute de quoi, la plate-forme devra faire ses « meilleurs efforts » pour assurer « l’indisponibilité » sur ses services des œuvres non couvertes par ces accords, dans deux paragraphes très controversés.

Le paragraphe 4b de l’article 17 impose aux plates-formes, pour éviter d’être responsable des atteintes au droit d’auteur par leurs utilisateurs, de prouver qu’elles « ont fait, conformément aux normes élevées de diligence professionnelle de l’industrie, les meilleurs efforts pour assurer l’indisponibilité d’œuvres et autres objets spécifiques pour lesquels les titulaires de droits ont fourni aux prestataires de services les informations pertinentes et nécessaires ».

En outre, le paragraphe 4c leur demande, en cas de retrait de contenus particuliers notifiés par les ayant droit (comme dans le régime actuel) que les plates-formes prouvent qu’elles « ont fait tout ce qui était en leur pouvoir pour empêcher leur téléversement (ndr : upload) ultérieur. »

Certes, la directive n’impose pas explicitement que ces obligations soient mises en œuvre au moyen de systèmes de détection ou de blocage algorithmique. Les plates-formes sont libres de choisir la méthode mise en œuvre. Mais si l’on considère que sur une plate-forme comme YouTube, qui compte plus d’1 milliard d’utilisateurs, au moins 300 heures de vidéo sont uploadées par minute, il paraît clairement absurde d’imaginer se conformer aux paragraphes 4b et 4c autrement que par des dispositifs techniques, à moins d’imaginer qu’environ 70 000 équivalents temps plein visionnent quotidiennement les 432.000 heures de vidéo uploadées. Peut-être est-ce à cela que font référence les partisans de la directive lorsqu’ils évoquent la possibilité de « solutions innovantes » pour se conformer à l’article 17 ?

Comment comprendre alors l’affirmation selon laquelle la directive « n’exige pas de filtre » ? On retrouve principalement trois arguments dans le discours des partisans de la directive.

1. « Le filtrage existe déjà sur certaines plates-formes, donc la directive ne change rien au statu quo »

Il est vrai que certaines plates-formes ont déjà spontanément mis en place des mesures de filtrage pour gérer les atteintes au droit d’auteur, tels YouTube et son système de détection par empreinte numérique Content ID. On voit pourtant immédiatement que la directive apporte au moins un changement majeur : les mesures de filtrage prises par certaines plates-formes seront dorénavant imposées à toutes les plates-formes commerciales de partage de contenu (sauf les cas d’exceptions prévus par la directive). Le fait que ces mesures sont désormais indispensables pour éviter une responsabilité juridique pour atteinte au droit d’auteur implique que les plates-formes mettront vraisemblablement en œuvre un filtrage beaucoup plus strict, afin d’éviter de s’exposer à un risque juridique se chiffrant en centaines de milliers d’euros.

2. « Le filtrage est évitable si les plates-formes signent des accords de licence »

C’est formellement exact, mais dans bon nombre de cas, ces mesures de filtrage seront en pratique inévitables. Les ayants droit restent libres de refuser de conclure des accords de licence avec les plates-formes, comme le rappelle le considérant 61 de la directive. De plus, s’il est relativement aisé pour les plates-formes de signer des accords avec les sociétés de gestions collectives, de nombreux ayants droit ne sont pas membres de telles sociétés. En outre, pour de nombreuses œuvres dites orphelines, les ayants droit sont inconnus ou introuvables. Conclure des accords de licence couvrant toutes les œuvres est donc une tâche impossible (ce que la directive reconnaît implicitement, en exigeant seulement des plates-formes de fournir leurs « meilleurs efforts »). Dès lors, il restera nécessairement bon nombre d’œuvres qui ne seront pas couvertes par les accords de licence.

3. « La directive n’impose pas une obligation générale de surveillance »

L’article 17 précise en son paragraphe 8 que « L’application du présent article ne donne lieu à aucune obligation générale de surveillance ». De quoi rassurer les inquiets ? Pas vraiment.

Ici, les rédacteurs de la directive cherchent surtout à montrer qu’ils ne contreviennent pas à l’interdiction (prévue à l’article 15 de la directive 2000/31 dite « e-commerce ») d’imposer aux services en ligne une obligation générale de surveillance. La directive DSM n’imposerait en effet qu’une obligation spécifique de surveillance, autorisée par le droit européen. C’est la raison pour laquelle le paragraphe 4b parle d’assurer l’indisponibilité des « œuvres et autres objets protégés spécifiques » pour lesquels les ayants droit ont fourni les informations nécessaires et pertinentes.

En pratique toutefois, la distinction paraît tenir à peu de choses : rien ne semble prévu pour empêcher les sociétés de gestion de fournir les « informations pertinentes et nécessaires » pour les millions d’œuvres spécifiques composant l’entièreté de leur catalogue…

Mais plus que le fond de ces trois arguments, c’est leur utilisation comme synonymes de l’affirmation « la directive n’exige pas de filtres » qui est la vraie source de confusion. Il semble bien que, sans jamais le dire, la directive impose une série d’obligations qui peuvent uniquement être respectées par la mise en place de systèmes de filtrage algorithmique. La directive impose donc bien une obligation implicite de filtrage des contenus au moment de l’upload.

C’est d’ailleurs ce que reconnaît finalement le Gouvernement français dans une communication récente, qui note parmi les « avancées majeures » de la directive le fait que les plates-formes devront « filtrer les publications mises en ligne pour s’assurer qu’elles ne contiennent pas des œuvres protégées ».

Un filtrage comme levier pour les ayants droit ?

Plus fondamentalement, ce qui est interpellant dans ce recours au filtrage par l’article 17, c’est qu’il n’est pas conçu comme une fin en soi. Nulle part l’exposé des motifs de la directive ne justifie la présence de ce filtrage par la nécessité pressante de lutter contre une éventuelle augmentation des atteintes au droit d’auteur sur ces plates-formes, ou d’un éventuel laxisme des mesures mises en œuvre par celles-ci pour lutter contre les atteintes au droit.

En fait, le risque d’une telle obligation de filtrage sert essentiellement de levier pour offrir aux ayants droit une meilleure position pour négocier des accords de licence avec les plates-formes de partage de contenu (et aboutir à un partage équitable de la valeur, en mettant fin au supposé « value gap »). On peut donc se demander si cette instrumentalisation d’une obligation implicite de filtrage, mesure particulièrement grave pour la liberté d’expression, respecte bien l’exigence européenne de proportionnalité des restrictions apportées aux droits fondamentaux.

En tout état de cause, si la propagation d’informations fausses ou confuses peut se comprendre de la part d’eurodéputés peu au fait de ces questions très techniques, elle est nettement moins excusable de la part de personnes ayant assumé un poste à responsabilité dans ce dossier, qui peuvent difficilement plaider l’erreur de bonne foi. Le rôle des lobbys n’est donc pas le seul facteur ayant contribué au climat délétère et confus du débat sur cette directive, et on ne peut que déplorer le manque de transparence et de clarté (voire de sincérité ?) dont ont fait preuve certains responsables européens.

Want to write?

Write an article and join a growing community of more than 182,100 academics and researchers from 4,941 institutions.

Register now