Règlement de censure terroriste adopté : résumons

Posted on


La semaine dernière, le Parlement européen a adopté, sans le voter, le règlement de censure terroriste. C’est le triste aboutissement de plus de deux ans de combats et une nouvelle défaite qui vient s’ajouter à celles subies ces derniers mois.

Comme nous l’avons fait pour la loi Sécurité globale, nous revenons ici sur les changements apportés par ce texte ainsi que sur la procédure qui a abouti à son adoption.

Commençons par rappeler qu’il s’agit ici d’un règlement européen (et non d’une directive), c’est-à-dire d’un texte d’application directe qui n’a normalement pas besoin d’un texte national pour s’appliquer. Plusieurs points restent cependant à préciser pour son application au niveau des États membres, ce qui nécessitera peut-être un véhicule législatif.

Les principales dispositions du texte

La disposition au cœur du texte est à son article 3 : toute autorité, administrative ou judiciaire (et qu’il reviendra aux États membres de désigner), pourra désormais forcer un fournisseur de service en ligne à retirer en seulement 1 heure un contenu qu’elle aura qualifié de terroriste :

  • Le retrait peut donc être ordonné par une administration, sans contrôle d’un juge. En France, ce pouvoir sera sûrement donné à l’OCLCTIC (qui peut déjà ordonner un retrait en 24 heures).
  • L’ordre de retrait peut venir de l’autorité de n’importe quel État membre de l’Union européenne vers tout fournisseur de service présent dans l’Union européenne.
  • Le texte ne définit pas lui-même ce qu’est un contenu terroriste, mais fait référence à une directive de 2017 et à son article 3 : la liste est très large et va jusqu’à concerner les incitations à « provoquer une perturbation grave » d’un système informatique ou de « causer des destructions massives […] à un lieu public ou une propriété privée », le tout en en vue de « gravement déstabiliser » la structure politique ou économique d’un pays — d’où le risque de censure politique que nous dénoncions dès 2018 ici.
  • Les services en ligne concernés sont tout fournisseur de service d’hébergement qui propose un service dans l’Union européenne en diffusant des informations au public (réseau social, plateforme vidéo, blog…), peu importe sa taille ou son importance .

Les exceptions prévues à cette obligation existent, mais restent très limitées, au vu notamment du délai de 1 heure et des fortes sanctions possibles :

  • Ne devrait normalement pas être concerné tout ce qui est diffusé au public à des fins éducatives, journalistiques ou de recherche (article 1 (3)), sans qu’on sache comment cette exception sera garantie en pratique (il faudra probablement faire confiance à la police pour faire d’elle-même la part des choses).
  • Si c’est la première fois que le service en ligne est contacté par une autorité (et s’il ne s’agit pas d’un cas d’urgence, dont l’appréciation est laissée à l’administration), l’autorité doit contacter le site 12 heures avant de demander formellement le retrait (art. 3 (2)).
  • Le fournisseur de service en ligne peut ne pas se conformer à l’ordre de retrait s’il existe une « force majeure », une impossibilité de fait qui ne lui est pas imputable, ou s’il n’a pas les informations nécessaires (art. 3 (7)).

De la même manière, des recours existent, mais ne sont possibles qu’a posteriori :

  • Tout service qui a reçu un ordre de retrait ou toute personne qui a vu son contenu retiré peut contester ce retrait, a posteriori, devant une juridiction — dans le cas où le litige s’étalerait sur plusieurs mois ou années, il semble bien que l’information censurée ne puisse pas être rétablie avant la fin du procès.
  • Dans le cas d’un ordre de retrait venant d’une autorité d’un État membre vers un service en ligne d’un autre État membre, l’autorité de ce dernier État peut décider, dans les 72 heures, que l’ordre de retrait n’est pas fondé et qu’il faut rétablir le contenu en ligne (art. 4).

Le texte contient d’autres obligations :

  • Tous les sites « exposés » à des contenus de type « terroriste » (c’est-à-dire désignés comme tels par une autorité) doivent lutter contre la diffusion de ces contenus, notamment via des « mesures techniques ». S’ils ne le font pas, une autorité administrative, tel le CSA, peut les y forcer.
  • Ces « mesures techniques » peuvent correspondre à des filtres automatisés, même si le règlement prévoit qu’il doit toujours y avoir une vérification humaine et qu’aucune autorité ne peut forcer les plateformes à mettre en place un filtre automatisé. Hélas, dans bien des cas, c’est le délai d’1 heure qui forcera en pratique les plateformes à reposer massivement sur des systèmes automatisés de modération en amont.
  • Les services exposés doivent prendre diverses mesures de transparence sur leurs actions de lutte contre la diffusion de contenus terroristes.

Enfin, il revient aux États membres de définir les sanctions en cas de non-respect des obligations, mais, en cas de « non-respect systématique » des ordres de retrait, la sanction pourra aller jusqu’à 4 % du chiffre d’affaires du service.

Comment en est-on arrivé là ?

Le texte a été présenté par la Commission européenne en septembre 2018.

En avril 2019, après que le Conseil de l’Union européenne puis le Parlement l’ont adopté en première lecture, nous étions déjà longuement revenu·es sur les premières étapes de nos combats (et ceux des autres) contre le texte. Nous y avions rappelé le rôle joué par les GAFAM dans l’élaboration du projet et souligné, à de nombreuses reprises, les risques de surveillance et de censure, notamment politique, d’un tel règlement.

Au cours de l’année 2020, chaque institution européenne ayant adopté une version différente, le texte a été discuté en « trilogue », c’est-à-dire entre des représentant·es des trois institutions, hors de tout débat public. C’est le texte qui en est sorti qui a été adopté la semaine dernière.

Ce texte n’a que peu de différences avec celui proposé par la Commission. Comme nous le répétons depuis le début, il facilitera la censure politique des mouvements d’opposition, aggravera l’utilisation de filtres automatisés en ligne et risquera ainsi de renforcer la centralisation d’Internet dans les mains des grandes plateformes :

Trois constats amers

Premier constat : nos deux ans d’efforts pour lutter contre ce texte, ainsi que ceux d’autres associations (EDRi, Wikimedia, Access Now…), n’auront eu aucun effet significatif en faveur de nos libertés. Deux années de suivi parlementaire, d’analyses juridiques et politiques, de campagnes d’appels aux parlementaires, de lettres ouvertes, françaises et internationales… Pour à la fin ne gagner que sur quelques exceptions à la marge (et détaillées plus haut), sans jamais rien changer au cœur du texte : la censure en 1 heure sans juge.

Deuxième constat : le fait que le Conseil constitutionnel français ait censuré, en juin 2020, une disposition très similaire dans la loi Avia n’a nullement empêché son adoption au niveau européen. Malgré nos appels réguliers pour souligner cette contradiction, la procédure a continué en toute tranquillité, dans un silence médiatique difficile à accepter, et avec le soutien des parlementaires français macronistes qui n’ont aucune gêne à instrumentaliser les institutions européennes afin de contourner la Constitution française.

Troisième constat : le texte a été définitivement adopté sans vote en plénière. S’agissant d’un vote en deuxième lecture, il était en effet nécessaire qu’un groupe parlementaire demande spécifiquement un vote, ce que personne n’a fait, pas même les groupes dits d’opposition.

Un des textes les plus graves jamais adoptés par l’Union européenne en matière de liberté d’expression l’a été dans une passivité générale, tant des médias que des élu·es, de gauche comme de droite. En dépit de cette indifférence décourageante, nous attendons de pied ferme que ce texte soit appliqué en France pour chercher des façons de le contrer, ou de le contourner, au niveau national.