Filtrage automatisé des plateformes : La Quadrature envoie ses arguments aux eurodéputés

Posted on


Paris, le 7 mars 2017 —  Le projet de directive européenne sur la réforme du droit d’auteur a été présenté en septembre 2016. À cette heure, les travaux qui se déroulent au Parlement européen et les mobilisations d’acteurs concernés à l’extérieur se multiplient, faisant notamment une part importante aux deux articles que La Quadrature du Net a pointés dès septembre : l’article 11 sur la création d’un droit voisin pour les éditeurs de presse, et l’article 13 sur l’obligation de détection automatique de contenus illicites sur les plateformes de partage de contenus.
La Quadrature du Net publie des positions sur l’article 13 qui ont été nourries de discussions et d’ateliers menés avec des créateurs, des juristes et globalement avec des acteurs quotidiens des pratiques culturelles numériques. Elles sont aussi adressées aux eurodéputés afin de nourrir le travail effectué dans les diverses commissions. Les premiers travaux des commissions du Parlement européen montrent que, contrairement à ce que l’on aurait pu croire, rien n’est encore joué sur ce dossier du droit d’auteur. Les articles 11 et 13 font l’objet de nombreuses discussions et plusieurs propositions des eurodéputés montrent même une réelle prise en compte de l’évolution des usages.


L’article 13 porte sur l’utilisation de contenus protégés par des services Internet qui stockent et donnent accès à un grand nombre d’œuvres et d’autres objets protégés chargés par leurs utilisateurs. Il prévoit que les prestataires de services prennent des mesures pour faire respecter leurs accords avec les titulaires de droits,notamment « le recours à des techniques efficaces de reconnaissance des contenus ».

La Quadrature du Net, au terme d’une série d’ateliers et de rencontres, a choisi de développer son argumentaire d’opposition à l’article 13 en prenant plusieurs approches : une approche strictement orientée vers les questions de droit et libertés, une seconde approche visant à montrer que cet article sera contre-productif pour la création et les créateurs, une dernière mettant en évidence l’absence de résolution du transfert de valeur entre plateformes et créateurs, et l’incompatibilité avec le régime actuel des hébergeurs de contenu.

La détection automatique de contenus illicites, une lourde atteinte aux principes du droit

Inversion de la charge de la preuve

Dans un premier temps, cet article inverse la charge de la preuve : au lieu d’exiger de l’ayants-droit qu’il prouve qu’il y a eu utilisation illicite de son œuvre, il impose à l’internaute qui a mis en ligne un contenu de prouver, après suppression automatique, que son contenu ne violait pas les droits d’autrui. Ce mécanisme risque de porter gravement atteinte à la liberté d’expression et de création.

Le caractère automatique de la sanction décourage de tout recours et prive du droit au procès équitable qui sous-tend les principes du droit.

Rien n’est indiqué dans la directive pour obliger les plateformes à tenir compte des réclamations faites ou mettre en place des procédures d’appel (mise à part une vague obligation « d’adéquation et de proportionnalité » et la mention d’un dispositif de plainte sans garantie).

Rupture d’égalité

De même, cette mesure crée une rupture d’égalité forte devant la justice : alors que les ayants-droit n’ont pas à intenter d’action judiciaire pour faire supprimer des contenus, les éditeurs dont les contenus ont été abusivement supprimés doivent, eux, supporter la charge d’une action judiciaire pour faire valoir leurs droits à posteriori.

Autre rupture d’égalité, celle qui ne manquera de se construire entre les ayants-droit qui seront assez riches pour avoir marqué l’ensemble ou une grande part de leur catalogue de façon à ce que les robots puissent détecter les réutilisations, et ceux qui ne pourront le faire : si cette automatisation du retrait de contenu illicite devient la norme, alors seuls ceux capables de supporter le coût de cette automatisation pourront faire valoir leurs droits. Les plateformes n’ayant pas reçu d’empreintes des ayants-droit seront-elles tenues de mettre tout de même en place les outils de détection ? Est-ce que l’absence de ces outils entraînera une illégalité de fait de ces plateformes ?

Si la situation n’est pas claire, il y aura de lourdes entraves à la concurrence dans le sens où les ayants-droit pourraient se trouver en position de juges des plateformes qu’ils estiment légitimes et qui peuvent, ou non, exister.

Contrôle des outils de détection de contenus illicites

La question du contrôle des robots est également cruciale : qui contrôlera ces robots, vérifiera leurs paramétrages ? Qui pourra certifier que ces robots auront la finesse d’analyse nécessaire pour distinguer la reprise illicite d’une œuvre et son détournement en parodie ? Qui pourra valider qu’il n’y aura pas d’abus, pas d’excès, pas d’interprétation abusive du droit d’auteur ? Au vu du fonctionnement de ce type de robots pour des plateformes de vidéo (Youtube), il est d’ores et déjà prouvé que ces robots font de nombreuses erreurs.

Parmi ces erreurs, il a par exemple déjà été constaté que les ayants-droit qui posent des empreintes sur des œuvres peuvent se réapproprier eux-mêmes les oeuvres d’autres auteurs, et priver ceux-ci du libre choix de publication de leur création.

Au vu de ces nombreux points d’inquiétude, nous préconisons de refuser la systématisation de ce procédé de détection d’œuvres protégées sur les plateformes de contenu, sous peine d’alourdir considérablement le régime juridique de la publication sur Internet et de mettre en place une inflation des atteintes aux droits fondamentaux.

L’article 13 de la directive droit d’auteur : une menace pour la création

Une censure incapable de repérer les exceptions légitimes au droit d’auteur

Les outils de censure automatique sont, par nature, incapables de discerner lors de la réutilisation d’une œuvre, s’il s’agit d’une simple copie sans ajout, ou bien d’une parodie, d’une critique ou d’un remix (entre autres possibilités de reprise légitimes et légales d’un extrait d’œuvre protégée). Toute la culture qui repose sur l’utilisation d’autres œuvres pour alimenter la création est donc niée et fortement mise en danger par ce type de mesure.

Or, la culture transformative est extrêmement présente dans les nouveaux usages et services qui sont visés par cet article. Y porter atteinte de façon indifférenciée comme l’article 13 le demande, c’est donc mettre en péril une part très importante de la création audio et vidéo actuelle.

Cette création transformative ou qui utilise des extraits d’autres œuvres est une part de l’écosystème culturel global qui ne peut être supprimée sans conséquences. Par exemple, le rôle de vulgarisation scientifique et de partage de culture générale exercé par de nombreux créateurs de vidéos, qui rassemblent plusieurs centaines de milliers de visiteurs à chaque publication, participant ainsi à la vitalité de la création culturelle et éducative notamment auprès d’un public jeune qui s’informe et se cultive plus volontiers sur Youtube que via des relais traditionnels.

Des conflits prévisibles entre titulaires de droits, une négation du créateur amateur

Par ailleurs, cette disposition pourrait avoir des répercussions négatives pour les œuvres qui sont diffusées sous licence libre, ou qui sont entrées dans le domaine public. L’expérience du robot de détection d’œuvres protégées sur Youtube a fait apparaître de nombreux conflits entre titulaires de droits, qui promet un contentieux important, et par ricochet une modification des conditions de création, les créateurs ne pouvant être assurés de contrôler comme ils le souhaitent la diffusion de leurs œuvres. L’autopromotion d’artistes deviendra pratiquement impossible, puisqu’elle repose sur la diffusion d’œuvres contrôlée par l’artiste ou ses agents. Comment faire sortir une œuvre des empreintes de l’outil de détection, lorsqu’elle est volontairement diffusée ?

En ce qui concerne le principe même de ces outils, il y a une négation flagrante du statut du créateur amateur, qui ne peut être reconnu et protégé que s’il est inscrit à une société de gestion collective de droits, en charge de fournir les empreintes d’œuvres à « protéger » sur les plateformes de partage. Cette logique est contraire aux principes du droit d’auteur qui protège chaque créateur indépendamment de son statut professionnel ou amateur.

Le projet de directive ne propose aucune garantie pour assurer une réduction au maximum des erreurs de censure si aucune obligation de résultat ou de moyen n’est imposée par la directive. Il ne prend non plus en compte la territorialisation du droit, et les différences géographiques d’exercice du droit d’auteur, mettant les créateurs et utilisateurs dans une situation d’insécurité juridique permanente.

Cette disposition qui se veut protectrice pour les créateurs est en fait une voie de restriction des capacités de création et de diffusion, et n’apporte strictement aucun avantage aux créateurs eux-mêmes. Elle risque en outre de pousser à la création d’une culture hors-la-loi, qui se transfèrera vers des plateformes privées ou cachées, puisque les pratiques qui sont visées ne vont pas disparaître (elles sont trop massivement pratiquées par les internautes), mais seulement disparaître de la face visible d’Internet et décourager ainsi le renouvellement des générations de créateurs. Pour donner un exemple du transfert des pratiques, il suffit de regarder le résultat d’Hadopi en France, qui à sa création en 2008 ambitionnait de résoudre la question du partage d’œuvres illicite en ligne, et qui en 2015 ne concerne que 9% des téléchargements de musique.

Pour répondre réellement aux nouvelles pratiques culturelles, il faudrait plutôt intégrer dans la directive les propositions des commissions IMCO et CULT : une exception de citation élargie aux œuvres audiovisuelles (commission CULT) et une exception permettant les usages transformatifs (commission IMCO). Ce serait une avancée significative dans l’adaptation du droit d’auteur aux usages actuels.

L’article 13 entre en conflit avec le statut de l’hébergeur et ne règle pas la question du transfert de valeur

Incompatibilité avec la directive « Commerce électronique » et le statut de l’hébergeur

En demandant aux plateformes de mettre en place des outils de détection automatique de contenus illicites, cet article porte lourdement atteinte aux principes du droit. Mais au-delà, cela pose de nombreux problèmes de compatibilité avec la directive sur le commerce électronique de 2000 qui régit la plus grande part des responsabilités respectives des acteurs de l’Internet, et met en péril de nombreux équilibres, sans apporter en lui-même de solution au problème du transfert de valeur.

La directive « commerce électronique » de 2000 n’impose aucune obligation de surveillance préalable des contenus pour les hébergeurs de services de partage de contenus en ligne. Il est impossible d’imaginer pouvoir concilier l’obligation générale d’installation d’outils de détection de contenus illicites avec cette absence de responsabilité a priori des hébergeurs sur le contenu, mise en place à l’époque pour permettre le développement de nouveaux services. C’est cet équilibre qui a permis, depuis 15 ans, de sécuriser juridiquement les hébergeurs de contenu. D’éventuelles corrections de ce statut ne peuvent se faire au détour d’une directive sur le droit d’auteur et sans consultation globale préalable.

Un dispositif qui ne résout pas le problème du transfert de valeur

En supprimant les contenus, la problématique du transfert de valeur n’est pas résolue puisque cela n’entraîne aucune rémunération du créateur. Pire, les créateurs sont privés de la visibilité qu’apporte l’exposition, y compris illégale, de leurs œuvres sur Internet. La capacité de rémunération disparaît en cas de suppression et le dispositif de contrôle des contenus illicites ne peut jouer de rôle de redistribution et donc répondre à son objectif initial.

Internet est devenu une ressource publicitaire majeure. Nous souhaiterions soutenir d’autres modèles économiques que celui des revenus publicitaires, mais il peut au moins servir de base au règlement du problème de transfert de valeur plus efficacement que la suppression des contenus. Des mesures fiscales plus globales pourraient être envisagées : harmonisation fiscale européenne ou règlement de la question de la territorialisation des impôts pour les entreprises étrangères exerçant en Europe, changement de taux de rémunération sur les publicités ou le revenu général des plateformes etc. La question du différentiel de revenus entre plateformes et créateurs ne peut être réglée qu’en traitant des problématiques de répartition, avec une vraie acceptation des nouvelles pratiques de partage par les sociétés de gestion collective de droits.

Inégalités économiques entre plateformes

L’obligation générale de mise en place d’outils de détection automatique de contenus illicites va générer une forte inégalité entre plateformes : le développement ou l’achat de ce type de solutions est extrêmement coûteux. Les quelques entreprises qui sont actuellement en mesure de développer des outils performants de détection de contenus illicites sont elles-mêmes actrices sur le marché des contenus numériques et vont prendre un ascendant et mettre sous dépendance forte les plus petits acteurs qui devront leur acheter ou louer les services de leurs outils.

L’inflation probable du contentieux liée aux erreurs inévitables des outils est également source de coûts supplémentaires. Ce sont les grosses plateformes déjà existantes, pour beaucoup extra-européennes, qui vont donc être en mesure de conserver une qualité de service acceptable et d’être en règle avec la détection automatique de contenus illicites, alors que les petites structures ou les nouveaux entrants vont avoir un coût à assumer bien plus important, voire totalement rédhibitoire.

Paradoxalement, cette mesure risque de favoriser le monopole des GAFA et de tuer l’émergence d’acteurs européens, en faisant monter de façon disproportionnée le coût d’accès au marché ou les risques financiers imprévisibles en cas de création d’un service de partage de contenu. Il s’agit vraiment de savoir quel modèle économique nous voulons favoriser au sein de l’Union européenne.

La Quadrature du Net engage les eurodéputés des différentes commissions impliquées au fond et pour avis dans le travail sur la directive à tenir compte des nombreux problèmes évoqués dans cette analyse, et à supprimer purement et simplement l’article 13. Des propositions émergent des commissions pour adapter intelligemment le droit d’auteur à l’ère numérique, il serait plus profitable de les soutenir et les améliorer afin que cette réforme du droit d’auteur puisse prendre toute l’ambition qu’elle mérite et engage créateurs et utilisateurs dans une nouvelle dynamique profitable à tous.