La genèse du projet
En décembre 2015, en réaction à une série d’attaques terroristes en Europe, la Commission européenne a annoncé la création du « Forum de l’Internet Européen », réunissant Europol (l’agence européenne de police), les ministères de l’intérieur des États européens ainsi que Facebook, Google, Microsoft et Twitter, dans le but de chercher une solution « pour protéger le public de la diffusion de contenus terroristes ».
En juin 2017, la Commission européenne fait un premier bilan pour se féliciter de « l’initiative menée par l’industrie de créer une « base d’empreintes numériques » [« database of hashes »] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ». La Commission demande que « les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la « base d’empreintes numériques » ».
Le fonctionnement technique de cette « base d’empreintes numériques » est simple à comprendre. Quand Facebook, Google, Microsoft ou Twitter juge qu’une image ou une vidéo relève du terrorisme (via son algorithme ou, plus probable, via son armée de « tacherons du clic » recrutés dans les pays les moins riches), il calcule l’« empreinte numérique » de ce contenu et ajoute cette empreinte à une base de données partagée entre les quatre entreprises.
Ici, une « empreinte numérique » est un chiffre calculé à partir d’une image ou d’une vidéo et au moyen d’une fonction mathématique assez triviale, dite de « hachage », qui produit un résultat identique pour deux images/vidéos identiques. Ainsi, chaque fois qu’un contenu est mis en ligne sur la plateforme d’une des quatre entreprise, celle-ci peut calculer son empreinte numérique pour vérifier qu’elle ne soit pas déjà inscrite dans la « base de données » partagée, puis le censurer éventuellement.
En décembre 2017, la Commission explique que « la base de données des contenus réputés terroristes (« la base d’empreintes numériques ») […] est maintenant pleinement opérationnelle et a jusqu’ici réuni plus de 40 000 empreintes ». La Commission annonce que son « objectif le plus urgent est maintenant de passer [ses] efforts à l’échelle afin que toutes les entreprises internet y prennent part » : « c’est pourquoi le Forum s’est donné comme priorité d’atteindre et d’impliquer les petites et nouvelles entreprises ».
Dans la même déclaration publique, aux côtés de la Commission, Facebook s’est vanté que « aujourd’hui, 99% des contenus terroristes liés à ISIS et Al Qaeda retirés de Facebook sont détectés avant que quiconque de notre communauté ne nous l’ait signalé, et, dans certains cas, avant qu’il ne soit mis en ligne sur le site. Nous faisons cela principalement au moyen de systèmes automatisés tels que la concordance de photo ou de vidéo et le machine learning basé sur du texte. Une fois que nous avons connaissance d’un contenu terroriste, nous retirons 83% des copies ultérieurement mises en ligne dans l’heure qui suit leur publication ».
Pour résumer, à la fin de l’année 2017, la situation est claire : Facebook et Google ont travaillé pendant deux ans avec la Commission européenne pour développer des outils censés détecter et retirer des contenus terroristes en une heure, tout cela autour d’une immense liste noire. La prochaine étape est de pousser les « petites plateformes » à utiliser ces outils.
L’offensive franco-allemande
En avril 2018, ce sont les gouvernements allemand et français (Gérard Collomb directement) qui ont déclenché cette nouvelle étape, en exigeant que la Commission européenne propose une loi européenne (voir les lettres française et allemande « leakées » par nos amis d’EDRi).
Ils sont sans détour : « Notre but est que les retraits des contenus soient effectués dans l’heure qui suit leur mise en ligne, afin d’éviter toute dissémination. […] Nous avons recommandé aux grandes entreprises d’apporter un soutien logistique aux plus petites plateformes, tant les moyens de celles-ci sont par trop limités pour apporter une réponse efficace à notre injonction de retirer rapidement les contenus ».
En dehors des plateformes de Google, Facebook, Microsoft et Twitter qui collaborent directement avec eux, ces gouvernement regrettent que « les délais de détection et de retrait sont encore trop long » et que « rien ne permet de penser qu[e la situation] s’améliorera à l’avenir, car le cadre juridique européen ne prévoit aucune mesure de sanction ». « Une modification de ce cadre juridique dans un sens plus contraignant apparaît donc indispensable ».
Et cette modification ne serait jamais qu’une première étape : une fois le règlement anti-terroriste adopté, « il conviendra par la suite d’étendre les règles fixées aux contenus à caractère pédopornographique et à ceux relevant des discours de haine ».
Le 12 septembre 2018, la Commission européenne s’exécute et publie une proposition de règlement répondant précisément aux demandes franco-allemandes. On y trouve notamment l’obligation de retirer en une heure les contenus signalés comme terroristes par la police, celle d’avoir un point de contact disponible 24h/24 et 7j/7 pour recevoir ces signalements et celle de mettre en place des mesures devançant les demandes de la police via un filtrage automatisé des contenus.
Un projet inutile
L’offensive franco-allemande, mise en œuvre par la Commission européenne, repose sur une hypothèse ancienne et tenace : la propagande terroriste sur Internet augmenterait le risque d’attaques terroristes. Pourtant, aucun gouvernement ni la Commission n’a jamais produit de preuves objectives pour défendre la réalité de cette hypothèse. Au contraire.
En 2017, l’UNESCO publiait un rapport analysant 550 études publiées sur la question de la radicalisation en ligne. Il conclut que « les données dont on dispose actuellement sur les liens entre l’Internet, les médias sociaux et la radicalisation violente sont très limités et ne permettent pas encore de tirer des conclusions définitives » et que « les données sont insuffisantes pour que l’on puisse conclure à l’existence d’un lien de cause à effet entre la propagande extrémiste ou le recrutement sur les réseaux sociaux et la radicalisation violente des jeunes ». Le rapport souligne que « les tentatives pour prévenir la radicalisation violente des jeunes sur l’Internet n’ont pas fait la preuve de leur efficacité, alors qu’il est clair qu’elles peuvent porter atteinte aux libertés en ligne, en particulier la liberté d’expression ».
Les risques d’attaques terroristes ne diminueront pas du fait d’une solution technologique « magique ». Visiblement, le passage à l’acte meurtrier résulte d’évolutions personnelles et de rencontres physiques. Typiquement, les auteurs d’attaques terroristes de 2015 et 2016 en France et Belgique ne semblaient pas suivre de groupes terroristes en ligne. Au pire, la propagande terroriste sur Internet conduirait surtout à galvaniser des personnes qui ont déjà basculé vers la violence meurtrière.
Les ministères français et les députés européens qui soutiennent le texte et que nous avons rencontrés ne nient pas cette situation. Ils admettent, tout comme la Commission, que, dans l’hypothèse où Google et Facebook auraient déjà « nettoyé » leurs plateformes de toute propagande terroriste, l’objectif du règlement anti-terroriste est de « nettoyer les petites plateformes ». Ils nous expliquent que la propagande terroriste aurait trouvé refuge sur ces autres plateformes et que, ainsi, le règlement ne viserait pas tant à « protéger le public de la propagande » mais, surtout, à empêcher DAESH de continuer de communiquer avec les personnes qui le suivent déjà.
Cette perspective éclaire de façon saisissante la volonté qui anime la proposition de règlement. Mais elle révèle aussi la vacuité de cette proposition.
En pratique, il est impossible d’empêcher les personnes qui le veulent d’accéder aux informations publiées par DAESH. Le règlement anti-terroriste se contente de prévoir des sanctions économiques contre les plateformes qui diffusent de la propagande terroriste. Cela ne dissuadera jamais DAESH de diffuser sa propagande sur ses propres sites, inatteignables pour les autorités des pays membres de l’Union européenne. L’inefficacité du règlement est si totale et absurde qu’on pourrait en être surpris. En vérité, rien n’est surprenant : le règlement ne pouvait prévoir aucune solution efficace. Il est techniquement impossible d’empêcher aux internautes d’accéder aux sites qu’ils veulent visiter – d’autant plus quand cette volonté est motivée par des antagonismes aussi profonds que ceux dont il est ici question.
En matière de lutte contre le terrorisme, ce règlement est donc purement symbolique. Pour permettre aux gouvernements européens de tenir une posture anti-terroriste faussement ferme et résolue, ce règlement s’apprête à confier aux États des pouvoirs de censure politique dont l’effectivité sera, elle, bien réelle.
Une censure politique sans contrôle
Le règlement s’imposera à tout acteur internet qui héberge et diffuse des contenus (texte, image, vidéo) fournis par le public, peu importe où ce site est situé dans le monde. Le texte ne vise pas que les grandes plateformes mais aussi – c’est le but – les petites et moyennes plateformes.
Son article 4 permet à une « autorité » d’un État de l’Union européenne de demander à n’importe quel acteur internet de bloquer dans un délai d’une heure un contenu qu’elle jugerait comme relevant du terrorisme. La police fait partie des « autorités » pouvant faire cette demande. Le gouvernement français nous a clairement avoué que, en France, c’est bien à la police que serait confié ce pouvoir de qualifier et de censurer un contenu qu’elle juge « terroriste », et ce sans aucun contrôle judiciaire préalable.
Cette situation française n’aurait rien de surprenant : depuis 2015, le droit français permet déjà à la police d’exiger à un acteur internet de censurer un contenu qu’elle juge terroriste, dans un délai de 24h, et toujours sans contrôle judiciaire préalable. La Quadrature du Net avait d’ailleurs tenté, en vain, de contester la validité de ce dispositif devant les juges français (décision du Conseil d’État).
La censure d’Internet par la police est un des exemples contemporains les plus explicites de violation de la séparation des pouvoirs : une même autorité – le gouvernement – concentre le pouvoir de faire appliquer la loi (pouvoir exécutif) et celui d’interpréter la loi (pouvoir habituellement judiciaire), sans aucun contre-pouvoir.
Les conséquences de cette situation anti-démocratique se font déjà sentir en France : en septembre et octobre 2017, la police française exigeait que les plateformes collaboratives Indymedia Nantes et Indymedia Grenoble retirent quatre tribunes revendiquant l’incendie de véhicules de la police et de la gendarmerie. Ces dégradations matérielles étaient revendiquées en soutien à des personnes poursuivies par la justice dans le cadre de l’incendie d’une voiture de police lors des manifestations contre la loi travail. La police faisait alors ces demandes au nom de la lutte anti-terroriste (voir notre réaction à l’époque).
Dans ce type de situation, le droit français prévoit qu’une « personnalité qualifiée » de la CNIL est informée de ces censures policières. Ici, cette personnalité qualifiée a considéré que les censures étaient abusives et a saisi la justice pour les contester. Il a fallu attendre près d’un an et demi pour que, le 31 janvier 2019, des juges reconnaissent enfin que la police avait abusé de ses pouvoirs : il ne s’agissait pas de censure anti-terroriste. La situation est donc claire : en France, le gouvernement a disposé d’un délai d’un an et demi durant lequel il a pu librement censurer qui bon lui semblait.
Et encore, cette décision ne décrit que « la meilleure des situations » : nous ne savons rien de toutes les censures abusives que la personnalité de la CNIL n’a pas contestées, et nous n’avons aucune idée du délai ou des conséquences qu’aurait eu une telle procédure si elle avait été initiée par une personne censurée plutôt que par la CNIL.
En ne prévoyant aucun contrôle judiciaire préalable, le règlement anti-terroriste, comme le droit français, offre aux gouvernements européens le pouvoir de censurer librement leurs opposants politiques durant de longues périodes – potentiellement infinies dans les nombreux cas où les personnes ne sauraient se défendre elles-mêmes en justice.
Cette crainte s’inscrit directement dans la suite de dérives autoritaires généralisées en Europe, allant de la censure des sites indépendantistes catalans par le gouvernement espagnol au dévoiement par le gouvernement français de dispositions de l’état d’urgence et de l’anti-terrorisme pour enfermer et museler militants écologistes et de gauche, que ce soit durant la COP21 ou à Tarnac, en abusant chaque fois de la loi qu’il prétend défendre.
Cette crainte est démultipliée par le fait que le règlement permettra à un État membre de censurer des plateformes localisées dans n’importe quel autre État, sans aucun contrôle de ce dernier. Ainsi, les États européens qui ne tendraient pas déjà vers des régimes autoritaires trouveront leurs acteurs numériques entièrement soumis au pouvoir des autres États. L’Union européenne a beau jeu de prétendre défendre des valeurs démocratiques, elle assure désormais un nivellement par le bas de nos libertés.
Des obligations intenables
En pratique, en une heure, aucune plateforme Internet ne peut censurer un contenu.
Première impossibilité : pour retirer un contenu en une heure, il faut que chaque plateforme ait au moins une personne systématiquement présente pour recevoir les ordres de la police. C’est ce que prévoient l’article 14 et le considérant 33 du règlement : la plateforme doit avoir un « point de contact » qui « soit joignable 24 heures sur 24 et 7 jours sur 7 ». Quelles plateformes peuvent se le permettre ? Pas celles d’une bibliothèque ou d’une mairie, pas celle d’une association ni d’une petite ou même moyenne entreprise. À part les géants du numérique qui ont des bureaux ouverts aux quatre coins du monde, personne n’est joignable systématiquement.
Seconde impossibilité : aucune plateforme ne peut techniquement identifier, localiser puis retirer un contenu en une heure. Encore une fois, seuls les géants qui participent au Forum de l’Internet européen prétendent pouvoir le faire, sans qu’on ne sache d’ailleurs ce qu’il en est véritablement.
Quand nous avons expliqué ces impossibilités aux ministères français et aux députés européens que nous avons rencontrés, ils nous ont répondu ce que la lettre d’avril 2018 des gouvernements français et allemands laissait comprendre : pour pouvoir respecter le règlement, toutes les plateformes n’auront qu’à utiliser les outils de modération développés par Facebook et Google.
L’alliance gouvernement-GAFAM
Le premier de ces outils serait la « base d’empreintes numériques » remplie collectivement par Facebook, Google, Microsoft et Twitter depuis 2 ans au sein du Forum de l’Internet Européen. En septembre 2018, l’analyse d’impact qui accompagne la proposition de règlement explique que la base comprendrait désormais 80 000 empreintes (deux fois plus qu’en décembre 2017, quelques mois plus tôt). Techniquement une plateforme devrait comparer l’empreinte numérique de chaque image ou vidéo envoyée par ses utilisateurs à la liste noire, puis censurer les contenus jugés illicites par Google et Facebook, toujours sans aucun contrôle judiciaire.
L’objectif du règlement est ici encore très clair : considérés comme peu efficaces, les juges sont remplacés par une poignée de multinationales qui collaborent déjà activement avec la police (par exemple, en 2015, la France est devenue le pays demandant le plus grand nombre de suppressions de pages Facebook : 38 000 suppressions en un an, pendant que l’Allemagne ou Israël n’en demandaient par exemple que 500).
En théorie, les plateformes qui accepteront de se soumettre à la liste de noire de Google et Facebook n’auraient plus à être systématiquement joignables par la police des 28 États membres européens : la liste noire prétend tout censurer en amont, dans des délais records.
Toutefois, de nombreuses plateformes n’auront pas les moyens techniques ou économiques d’implémenter cette liste noire. Elles pourront alors se rediriger vers d’autres services encore plus intrusifs offerts par les GAFAM, par exemple en remplaçant leurs espaces de forum par l’outil de commentaire offert par Facebook (en échange des données personnelles de leurs utilisateurs, évidemment).
Dans tous les cas, utiliser les outils de Facebook et Google ne sera pas juste une « option » possible pour se prémunir d’injonctions de censure aux délais intenables. Il s’agira aussi directement d’une obligation. L’article 6, §1, du règlement exige que les plateformes prennent « des mesures proactives pour protéger leurs services contre la diffusion de contenus à caractère terroriste ». L’article 6, §§ 3 et 4, prévoit qu’une autorité nationale (dont la police) peut, si elle juge peu efficace les « mesures proactives » déjà prises, en imposer des spécifiques – tel que se soumettre à la liste noire des GAFAM.
Les dérives de la censure privée
L’article 2 du règlement explique que les contenus devant être censurés sont des textes, images ou vidéos qui « provoquent à la commission », « font l’apologie », « encouragent la participation » ou « fournissent des instructions sur des méthodes ou techniques en vue de la commission d’infractions terroristes ». Tout repose donc sur ces « infractions terroristes », définies par le droit de l’Union à l’article 3 de la directive 2017/541.
La liste en est longue. On y retrouve évidemment les meurtres visant à terroriser la population. Mais aussi des actes plus éloignés et moins attendus, tels que le fait de « provoquer une perturbation grave ou une interruption » d’un système informatique (un ordinateur, un site Web…) ou de « causer des destructions massives […] à un lieu public ou une propriété privée, susceptible […] de produire des pertes économiques considérables ». Pour être qualifiés d’infractions terroristes, ces actes doivent être commis dans le but de « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque » (retirer un projet de loi, par exemple) ou dans le but de « gravement déstabiliser […] les structures politiques, constitutionnelles, économiques ou sociales fondamentales d’un pays ». La simple menace de commettre de tels actes entre aussi dans la définition.
Pour résumer, en droit européen, le piratage ou la destruction massive de biens, ou la menace de le faire, sont des « infractions terroristes » dès lors qu’il s’agit d’influencer une décision politique ou de déstabiliser des institutions.
En outre, l’article 18 du règlement anti-terroriste prévoit des sanctions économiques contre les plateformes échouant systématiquement à censurer les contenus terroristes, pouvant aller jusqu’à 4% de leur chiffre d’affaire mondial. Ainsi, les plateformes ont tout intérêt à censurer tout contenu susceptible d’entrer dans la large définition européenne du « terrorisme » – et n’ont aucun intérêt à ne pas le faire. Cette situation s’aggrave dès lors que ces choix seront finalement délégués à Google et Facebook pour une large part des plateformes européennes.
Dans ces conditions, on pourrait se demander lequel des contenus suivants, directement inspirés de l’actualité française, ne serait pas censuré automatiquement :
- un appel à manifester sur les Champs-Élysées, alors que le rassemblement précédent a conduit à d’importantes détériorations matérielles et enfonce le gouvernement dans une crise politique ;
- une vidéo qui, prise depuis le balcon d’en face, filmerait la destruction d’une banque ou d’un fast-food, accompagnée d’un commentaire audio du spectateur surpris, du type « ahahah, c’est bien fait pour eux » ;
- une vidéo d’altercations agressives entre manifestants et CRS au prétexte qu’elle serait diffusée par une personne se réjouissant que les autorités publiques soient ainsi remises en cause ;
- un texte menaçant le gouvernement de blocage généralisé de l’économie ou de grève générale ;
- une invective orale du type « si Macron ne démissionne pas, on va venir mettre le feu à l’Élysée » ;
- un communiqué justifiant le fait d’avoir détruit un véhicule de police.
En appliquant le droit à la lettre, tous ces exemples pourraient correspondre à la définition européenne du « terrorisme ». Ainsi, même si Google et Facebook ne les ajoutaient spontanément pas à leur liste noire imposée à l’ensemble du Web, la police pourra toujours intervenir elle-même pour en exiger la censure.
En parallèle, de nombreux contenus parfaitement licites et bénins subiront nécessairement les effets de bords des outils de censure automatisée, dont le « surblocage » est une conséquence intrinsèque. La censure de messages visant précisément à dénoncer et lutter contre le terrorisme en est déjà une conséquence, alors que le règlement n’es même pas encore adopté.
La destruction de l’écosystème numérique européen
La rigueur absolue du règlement altérera l’ensemble de l’écosystème numérique européen. Il dissuadera des nouvelles plateformes d’apparaître et poussera celles existantes à disparaître, faute de pouvoir respecter la loi, ou à se soumettre techniquement et économiquement à quelques géants qui sont déjà en situation de quasi-monopole.
Les gouvernements européens semblent prêts à payer ce prix : empêcher notre écosystème européen de se développer pour s’allier à une poignée d’acteurs étrangers surpuissants qui ont déjà démontré leur volonté de collaborer dans leur politique de censure et de surveillance généralisée du Web. Cette alliance prend d’autant plus de sens lorsqu’on se souvient que ce règlement n’est que la première étape d’un projet plus large qui prendra bientôt comme prétexte la lutte contre les « fausses informations » ou la haine pour parachever son emprise sur nos échanges en ligne.
Pourtant, comme La Quadrature du Net n’a de cesse de le défendre, le développement d’un écosystème numérique riche, diversifié et décentralisé devrait être la principale urgence. Non seulement pour échapper à la surveillance économique de masse conduite par les GAFAM et leur monde, en violation totale du règlement général sur la protection des données (lire nos plaintes collectives à ce sujet), mais aussi pour nous permettre d’échanger et de faire société sur des plateformes à taille humaine, placées entre nos mains et dont le but n’est pas de « rentabiliser notre attention » en distordant nos débats publics et en favorisant les conflits non souhaités, les caricatures et l’anxiété.
L’état des débats législatifs
Le 6 décembre 2018, en moins de trois mois et dans une précipitation sans commune mesure avec le rythme classique des débats au niveau européen, l’ensemble des États membres de l’Union européenne ont adopté au sein du Conseil de l’Union leur position sur la proposition de règlement faite par la Commission, la reprenant dans sa quasi-intégralité (lire notre réaction).
Le texte doit maintenant être adopté par le Parlement européen. C’est la commission « libertés civiles » (LIBE) qui a été désignée comme « compétente au fond » – chargée de rendre un « rapport » proposant des amendements au texte de la Commission européenne, rapport qui servira ensuite de base au Parlement européen pour examiner le texte de la Commission en séance plénière.
Le rapporteur de la commission LIBE est Daniel Dalton (ECR – Extrême-droite). Il vient du Royaume-Uni et, en tant que tel, quittera bientôt définitivement le Parlement. Avant de partir, il souhaite à tout prix que sa commission adopte un rapport, juste avant les élections européennes. Le projet de rapport qu’il a proposé comme base de travail reprend les pires aspects de la proposition de la Commission européenne. Le vote aura lieu le 21 mars 2019.
Avant cela, deux autres commissions voteront sur un simple « avis » (visant à conseiller la commission LIBE) : la commission IMCO (pour Marché intérieur et protection des consommateurs – avec Julia Reda comme rapporteure – Allemagne, Groupe des Verts) et la commission CULT (pour Culture et Éducation – avec Julie Ward comme rapporteure – Royaume-Uni, du groupe Socialistes et Démocrates).
Ces commissions ont toutes les deux récemment publié leur projet d’avis sur le texte.
Le projet d’avis de Julia Reda suggère la modification et même la suppression de nombreux éléments qui posaient problème dans le texte original présenté par la Commission européenne. Il y est ainsi proposé d’exclure du champ d’application les petites et moyennes entreprises ainsi que les services d’informatique en nuage, les blogs ou les services de communication interpersonnelles (c’est à dire les messageries instantanées). Elle recommande par ailleurs que seules des autorités judiciaires (et non plus la police) puissent demander à un fournisseur le retrait d’un contenu et cela, non plus dans l’heure mais seulement « rapidement, compte étant tenu de la taille et des ressources des fournisseurs des services d’hébergement ». Le fournisseur de service pourrait également contester le fondement de la demande de retrait qui lui est adressé. Enfin, parmi d’autres mesures, il est demandé la suppression de l’article 6 qui concernait la possibilité pour les autorités d’imposer des mesures de filtrage automatique aux fournisseurs de services.
Concernant la Commission CULT, le projet d’avis de Julie Ward critique à son tour les dangers de la proposition de la Commission. Elle y propose notamment, elle-aussi, de ne donner le pouvoir d’ordonner des retraits de contenus qu’aux autorités judiciaires, de ne plus parler d’un retrait en une heure mais « dans les meilleurs délais », de supprimer l’article 6 sur les mesures proactives de filtrage et de retirer la sanction minimum de 4% du chiffre d’affaires…
Si ces deux projets d’avis contiennent des propositions de modification qui sont les bienvenues par rapport au texte original, il reste que la stratégie que paraissent poursuivre les députées, c’est-à-dire de vider le texte de sa substance (réduction du nombre d’acteurs visés, passage obligatoire par des autorités judiciaires, suppression du délai de retrait d’une heure et des filtres automatiques…) sans appeler à son rejet en entier, nous semble être un jeu bien trop dangereux, qu’il ne faut surtout pas jouer.
En effet, premièrement, rien ne dit que ce seront les avis définitifs qui seront adoptés par IMCO et CULT et, deuxièmement, il sera toujours plus facile, une fois le texte adopté, de faire sauter les exceptions pour revenir au projet d’origine de la Commission. Comme nous le soulignons depuis septembre, seul le rejet du texte en son entier permettra de sauvegarder nos libertés et de conserver un Internet libre et décentralisé.
Les 753 amendements déposés en commission LIBE et débattus le 21 mars sont accessibles ici.
Répondre aux principaux arguments des défenseurs du texte
« Ne seront concernés par ce texte que les contenus terroristes les plus graves, ceux qui sont évidents. »
Non. Le texte laisse à la police et à des acteurs privés (et non à des juges) le soin d’interpréter la notion de « contenu terroriste ». Or, cette notion, telle qu’elle est définie dans la directive antiterroriste de 2017, est volontairement large. Elle couvre par exemple les actes de piratage ou de destruction massive de biens (ou la simple menace de le faire), commis pour influencer une décision politique ou pour déstabiliser des institutions.
Laisser à la police le soin d’interpréter cette notion, cela mènera à la censure d’opposants politiques et de mouvements sociaux. Par exemple, cela s’est vu en 2017 quand la police française a exigé que le site Indymedia retire certains contenus de son site en considérant qu’il s’agissait de contenus terroristes. Il a fallu près d’un an et demi avant que le 31 janvier dernier, le juge administratif reconnaisse que la police avait abusé de son pouvoir et qu’il ne s’agissait pas de contenus terroristes.
Pour les acteurs privés (l’ensemble des acteurs du Web), l’obligation de mettre en place des mesures proactives, avec la menace de lourdes amendes, aura pour effet de les motiver à interpréter la notion de « contenu terroriste » le plus largement possible et à donc à censurer de nombreux contenus qu’un juge n’aurait peut-être pas qualifié de terroriste. Par exemple, en France, de nombreux contenus publiés par certains gilets jaunes pourraient tomber dans cette définition et donc être censurés.
« Internet est un outil incontournable de la propagande et de l’apologie du terrorisme. Il faut retirer ces contenus au plus vite car ils favorisent la radicalisation. »
Aucun gouvernement ni la Commission n’a jamais produit de preuves objectives pour défendre cette hypothèse.
Au contraire, un rapport de l’UNESCO publié en 2017 a analysé 550 études publiées sur la question de la radicalisation en ligne. Il a conclu que les liens entre l’Internet et la radicalisation sont très limités et qu’aucune conclusion définitive ne peut en être tirée.
De la même façon, les auteurs d’attaques terroristes de 2015 et 2016 en France et en Belgique ne semblaient pas suivre de groupes terroristes en ligne.
« Ce texte permet de viser les petites plateformes, les petits sites Internet sur lesquels se retrouvent des communautés terroristes et contre lesquels, aujourd’hui, on ne peut rien faire. »
Aucun texte de loi n’empêchera les personnes consultant ce type de plateformes de communiquer entre elles. Les personnes qui veulent accéder à des contenus terroristes pourront toujours le faire, et aucun texte n’empêchera non plus des organisations terroristes de diffuser leur propagande sur leurs propres sites, inatteignables pour les États membres de l’Union européenne.
La seule conséquence effective de ce règlement sera de soumettre l’ensemble des acteurs du Web aux outils de filtrage automatisés développés par les géants du Web et donc de déléguer des pouvoirs de censure (que seul un juge devrait posséder) à des acteurs privés ou à la police.
« Les experts disent que le contenu doit être retiré en 1 heure car c’est dans ce laps de temps qu’il a le plus d’impact. »
Ce ne sont pas les experts qui ont apportée cette idée du délai de retrait en une heure mais les géants du Web (plus précisément Facebook et Google) dans le cadre du Forum de l’Internet européen. Ils se sont en effet vantés dès 2017 de pouvoir retirer des contenus terroristes dans l’heure qui suivait leur publication. C’est leur volonté de soumettre l’ensemble des acteurs de l’Internet à leurs outils de modération qui est à l’origine de ce texte européen.
En pratique, en une heure, aucune autre plateforme Internet que les géants du Web ne peut censurer un contenu. Pour cela, il faut notamment avoir un point de contact disponible 24h/24 et 7j/7 et avoir les outils techniques pour identifier, localiser et retirer le contenu. Seuls les géants de l’Internet disposent de tels moyens. Les autres acteurs de l’Internet n’auront pas le choix : cesser leurs activités ou se soumettre aux outils des géants.
« Il n’est dit nulle part que les autorités compétentes pour ordonner les retraits seront la police. Ce choix est laissé aux États membres. »
L’article 17 du texte laisse en effet aux États membres la possibilité de choisir les autorités compétentes pour ordonner le retrait en une heure. Mais en France, par exemple, l’autorité compétente sera l’OCLCTIC (Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication), un service de la police judiciaire qui peut déjà aujourd’hui bloquer un site internet sur une simple décision administrative.
« On ne peut pas ne rien faire. C’est pour ça qu’il est indispensable d’avancer le plus rapidement possible, afin d’avoir un texte avant les prochaines élections européennes. »
Il est encore plus dangereux d’agir dans la précipitation et de voter un texte qui n’est pas fondé sur des preuves concrètes et qui aura de graves conséquences sur l’ensemble de l’Internet.
D’ailleurs, le rythme avec lequel ce texte avance est sans commune mesure avec le rythme classique des débats au niveau européen. En moins de trois mois, la Commission européenne a présenté son texte et les gouvernements de l’Union européenne ont adopté leur position, en reprenant la quasi-intégralité du texte de la Commission. Au Parlement européen, de nombreux députés se sont plaints de ne pas avoir le temps de travailler réellement sur ce texte.
« La proposition de rapport de Daniel Dalton (le rapporteur du texte) indique bien qu’il ne peut y avoir de filtrages automatisés des contenus. »
Le rapport de Daniel Dalton maintient des obligations qui seront très lourdes pour l’ensemble des acteurs de l’Internet (c’est à dire prévoir un point de contact disponible 24h/24 et 7 jours sur 7 et devoir retirer en moins d’une heure les contenus signalés par la police). Très peu d’acteurs seront capables de respecter ces obligations. Encore une fois, soit ils cesseront leurs activités, soit ils délégueront leur modération aux seuls acteurs se disant capables de le faire : les géants du Web.
Par ailleurs, le délai d’une heure et les lourdes sanctions en cas de non-respect obligeront de toutes façons les acteurs de l’Internet à agir avant que la police ne les appelle et à mettre en place un filtrage automatisé.