Règlement terroriste : premier bilan et prochaines étapes

Posted on


Mercredi 17 avril, l’ensemble du Parlement européen a adopté en première lecture le règlement de censure des « contenus terroristes » en ligne. Par une très faible majorité, il a refusé de nous défendre contre la censure politique ou de protéger le Web libre et ouvert européen.

Le texte prévoit toujours qu’un juge ou que la police puisse demander à n’importe quelle plateforme de supprimer un contenu en une heure, ce qu’aucune plateforme ne pourra faire sans utiliser les outils de filtrage automatisé développés par Google et Facebook.

Heureusement, la lutte n’est pas finie : le texte pourra encore être modifié en seconde lecture par le nouveau Parlement qui sera élu lors des prochaines élections européennes. Ce sera la décision de ces futurs députés qui marquera la fin de la guerre. Et nous ne manquons pas de raisons d’espérer qu’au final, ce sont nos libertés qui l’emporteront.

Pour préparer cette dernière bataille, faisons d’abord le bilan de celle qui s’est achevée.

Les origines du règlement

La Commission européenne a publié sa proposition de règlement le 12 septembre 2018, en toute discrétion, le jour même où toute la lumière était braquée sur un vote décisif du Parlement européen concernant la directive Copyright (lire notre réaction à l’annonce du règlement terroriste et notre réaction du même jour au vote sur la directive Copyright).

Comme on le verra ensuite, le fait que ce règlement et cette directive aient été débattues en parallèle par l’Union européenne a posé de nombreux problèmes pour lutter tant contre l’un que contre l’autre, tout en révélant une volonté générale de la part de nos gouvernements de réguler le Web dans son ensemble pour les années à venir.

Cette volonté apparaît bien en amont dès 2015. Suite à une série d’attaques meurtrières en Europe, la Commission européenne réunit Google, Facebook, Twitter et Microsoft pour former le « Forum de l’Internet Européen » afin de chercher une solution « pour protéger le public de la diffusion de contenus terroristes ». L’idée de base est déjà là : confier aux géants du numérique la mission de chercher des solutions à nos problèmes.

Ces géants n’ont pas manqué l’occasion de proposer une solution qui, bien que peu utile, renforcerait leur domination sur le reste du Web et permettrait aux gouvernements européens de se donner bonne image (au premier rang desquels le gouvernement français, avec qui Facebook ne cache même plus son alliance). En juin puis en décembre 2017, la Commission européenne félicite les quatre géants pour la solution qu’ils ont construite : une liste noire contenant l’empreinte numérique de dizaines de milliers d’images et de vidéos catégorisées comme « terroristes » par leurs services de modération (qui mêlent « intelligence artificielle » et milliers d’employés exploités dans les pays les moins riches).

Le projet est déjà explicite : faire en sorte que l’ensemble des services Web utilisent la liste noire des géants pour filtrer les contenus qu’ils diffusent. Tout ça sans juge, sans contrôle démocratique, sans rien. Voilà le grand projet : confier aux GAFAM la mission de « civiliser » Internet.

C’est aussi ce qu’opère la directive Copyright : elle inscrit dans la loi la « solution » inventée par les GAFAM contre les pirates barbares qui, dans les fantasmes de l’industrie culturelle, nuiraient à cette dernière. Pour « civiliser » Internet, la généralisation du modèle Content-ID de Youtube assurera désormais l’exploitation massive de nos données personnelles afin de financer cette industrie. S’en remettre aux dominants est tellement plus simple que de repenser ses propres politiques culturelles (lire la tribune de Félix Tréguer, membre de La Quadrature, dans Le Monde qui le dénonçait).

On retrouve enfin la même inspiration dans la proposition de loi « contre la haine » déposée par Mme Avia en France il y a un mois : juste avant de quitter le secrétariat au numérique, Mounir Mahjoubi expliquait comment la loi devait s’inspirer de la modération mise en place par Facebook, présenté comme héros du Web (lire notre critique).

Le texte initial

Tel que proposé par la Commission européenne, le règlement sur le retrait des contenus terroristes permet de confier le contrôle du Web aux GAFAM de deux façons.

À son article 4, le texte prévoit qu’une plateforme doit retirer en une heure un contenu signalé comme terroriste par les autorités. Aucune petite ou moyenne plateforme ne peut répondre à une telle demande, ayant rarement des techniciens travaillant la nuit ou le week-end. Ces plateformes n’auront d’autres choix que d’empêcher en amont la mise en ligne du moindre contenu suspect en utilisant la liste noire fournie par les géants du Web. C’est précisément l’objectif annoncé depuis 2015 par la Commission, et aucun de nos interlocuteurs (ministères, députés…) n’a jamais pris la peine de le nier.

À son article 6, il est prévu que si, malgré la lourde pression que constitue l’article 4, une plateforme ne mettait pas en place un système de filtrage automatisé, les autorités pourraient l’y obliger. Les autorités pouvaient même désigner l’outil précis à implémenter, leur permettant de renvoyer explicitement vers celui de Google, Facebook, Twitter et Microsoft (toutefois, comme on le verra ensuite, ce point a ensuite évolué lors des débats).

Hélas, le texte ne s’arrête pas à une simple délégation de la censure du Web à ces géants. Il confère aussi de larges pouvoirs aux États pour qu’ils puissent eux-mêmes censurer Internet. La demande de retrait de l’article 4 peut venir tant d’un juge que de la police, qui agit alors sans autorisation judiciaire requise. De même, l’article 5 du texte initial prévoit un mécanisme de signalement par lequel la police ou Europol pouvait forcer une plateforme à vérifier si un contenu était conforme à ses propres conditions d’utilisations, qui, elles-mêmes, devaient obligatoirement interdire la publication de contenus terroristes (ce point aussi a évolué au fil des débats, on en reparlera ci-dessous).

Autant de pouvoirs qui ne manqueront pas d’être détournés par nos gouvernements pour nous censurer à des fins purement politiques (la police française l’a déjà fait, dévoyant ses pouvoirs anti-terroristes contre des militants d’extrême gauche et faisant bloquer leur site. Un an et demi après, cette censure a finalement été déclarée illégale par un tribunal).

Une fausse solution

Après avoir fait un large tour des ministères français pour dénoncer ce texte (lire notre compte rendu), nous avons rapidement réalisé que nous ne pourrions pas nous contenter de dire que ce règlement serait inapplicable par les petites et moyennes plateformes ou qu’il ouvrirait les portes de la censure politique. Car on nous a vite fait comprendre que c’était bien son but.

C’est donc ce but que nous avons cherché à déconstruire, en trois étapes.

Premièrement, en dénonçant combien confier aux géants du Web la modération de celui-ci serait un contre-sens, tant « l’économie de l’attention » qui fonde leur modèle porte une lourde responsabilité dans la sur-représentation de conflits et de propos anxiogènes en ligne (lire une de nos multiples analyses à ce sujet). De façon surprenante, nous avons rencontré assez peu d’oppositions à cet argument, si ce n’est la vague idée que « les GAFAM sont la moins pire des solutions ».

Deuxièmement, nous avons tenté de déconstruire le mythe de « l’auto-radicalisation en ligne », qui voudrait qu’un individu lambda puisse être pris d’envies meurtrières après être arrivé par hasard sur quelques vidéos de propagande terroriste, et qu’il faudrait donc l’empêcher de tomber dessus. Un rapport de l’UNESCO de 2017 nous a ici grandement aidé : après avoir recoupé 550 études sur la question, il conclut à l’absence de preuve au soutien d’un tel mythe, tout en soulignant les atteintes à la liberté d’expression commises en son nom. Les ministères et députés soutenant le règlement n’ayant plus d’arguments factuels pour se défendre, ils nous ont répondu que leur but n’était finalement peut-être pas tant de lutter contre « l’auto-radicalisation spontanée », mais surtout contre l’utilisation d’Internet à des fins d’organisation et de planification d’attentats entre personnes déjà radicalisées.

Rapport de l’UNESCO : Youth and violent extremism on social media: mapping the research

Ainsi, dans un troisième temps, nous avons dû leur expliquer que leur règlement serait bien peu utile à cette fin. Les personnes soutenant des idéologies meurtrières communiquent déjà via des plateformes qui violent et contournent sciemment la loi et qui se moqueront bien de recevoir des demandes de retrait officielles. Aucune loi ne peut prévoir des solutions informatiques crédibles pour lutter contre les idéologies meurtrières. Cette lutte ne peut s’opérer que par des changements culturels et structuraux.

En dernier ressort, nos adversaires n’avaient plus qu’une sorte de pseudo « principe de précaution » à nous présenter, en forme de « peut-être que tout cela ne sert à rien mais, on ne sait jamais, peut-être qu’on découvrira plus tard que c’était utile »… quitte à sacrifier nos libertés et notre écosystème numérique pour le découvrir. Difficile de croire en la sincérité d’une posture aussi absurde, qui semble surtout révéler leur véritable intention : se vanter d’avoir adopté un texte symbolique, aussi inutile et dangereux fut-il, juste avant les élections européennes.

À la toute fin du débat est apparu un dernier argument. La diffusion incontrôlée et sur une longue période de la vidéo de l’attentat de Christchurch sur Youtube et Facebook a démontré que les outils de modération automatisées de ces derniers étaient largement inutiles. Leur liste noire à base d’empreintes numériques a pu être très facilement contournée par les soutiens du meurtrier, qui ont simplement mis en ligne la vidéo sous différents formats pour échapper aux reconnaissances automatisées. Par une ironie dont l’amertume est insupportable, la diffusion de cette vidéo a démontré la vacuité absolue de ce règlement.

Le débat général

Tous ces débats ont dû se tenir dans un temps extrêmement court, car les gouvernements français et allemand, qui avaient demandé ce texte à la Commission européenne, entendaient bien le faire adopter avant les élections. En tout, le débat en première lecture aura duré à peine 8 mois (un sinistre record pour un texte d’une telle gravité).

Dans un premier temps, le texte a été discuté par le Conseil de l’Union européenne, qui réunit les gouvernements de l’Union. Grâce à l’engagement de 61 associations et acteurs du Web, nous avons pu dénoncer conjointement la stratégie anti-européenne d’Emmanuel Macron, qui favorise les GAFAM et viole la séparation des pouvoirs en permettant des censures politiques (lire la lettre commune). Quelques jours plus tard, le 6 décembre 2018, le Conseil de l’Union adoptait toutefois un accord sur le texte dans une version quasiment identique à l’initiale (lire notre réaction).

En parallèle, depuis presque aussi longtemps que nous combattions ce texte, le mouvement des gilets jaunes prenait en France une ampleur spectaculaire, entraînant une répression encore plus impressionnante. Nous n’avons pas pu nous empêcher de constater que le règlement soi-disant anti-terroriste serait une arme de choix pour censurer un tel mouvement social, tant le droit européen permet d’interprétations extensives (lire notre analyse).

Au parlement européen

Les débats au Parlement européen ont assez mal commencé. Le 12 décembre, soit le lendemain d’une fusillade ayant eu lieu à Strasbourg (l’endroit même où siégeait le Parlement à cette date), l’ensemble des députés ont adopté un rapport « sur les observations et les recommandations de la commission spéciale sur le terrorisme ». Ce rapport, qui n’a pas de valeur législative mais exprime simplement la volonté du Parlement, a été une sorte de prémice au règlement à venir. Il se félicite d’ailleurs de la proposition faite par la Commission et appelle explicitement à la « détection automatique » et à la « suppression systématique » des contenus terroristes (voir notre lettre envoyée aux députés avant l’adoption de ce texte puis notre réaction à son adoption).

Il a fallu attendre fin janvier pour que les débats commencent vraiment au Parlement européen. Daniel Dalton, député d’extrême-droite (groupe ECR) venant du Royaume-Uni, prêt à rendre son mandat d’un jour à l’autre en prévision d’un Brexit qui semblait alors imminent, avait été désigné rapporteur sur le texte. En tant que tel, sa mission était d’organiser les débats au sein de la commission LIBE (pour « libertés civiles ») afin de proposer un « rapport » (une version amendée du règlement) ensuite soumis au vote de l’ensemble du Parlement.

Fin janvier 2019, donc, Dalton proposait un projet de rapport laissant presque inchangée la proposition initiale de la Commission européenne. Ce renoncement à corriger le texte tranchait radicalement avec la position de Dalton sur la directive copyright, où il s’était opposé au filtrage automatisé, notamment pour protéger les petites plateformes. Son incohérence semblait totale (lire notre analyse). Par la suite, nous avons pu le rencontrer à plusieurs reprises au Parlement européen, pour y deviner sans grande surprise que cette incohérence cachait probablement les aspirations carriéristes les plus triviales : Dalton avait parfaitement saisi les causes et conséquences du règlement mais, tout en reconnaissant que la mesure phare du « retrait en une heure » était aussi absurde que dangereuse, il tenait à tout prix à la conserver ne serait-ce que pour le symbole qu’elle portait.

Dès février 2019, c’est sur la base de ce projet de rapport que les différents groupes politiques représentés dans la commission LIBE ont commencé à débattre pour chercher des compromis. Nous lancions notre page de campagne qui, dans les 2 mois de discussions restants, permettrait à tout le monde de contacter les 61 membres de LIBE pour les alerter sur les dangers de ce texte.

Le vote final de LIBE sur son rapport avait été fixé au 21 mars. Avant cela, au cours du mois de mars, les commission IMCO (« consommateurs ») et CULT (« culture ») ont chacune rendu un avis pour assister LIBE. Ces avis, bien que très imparfaits, proposaient enfin des améliorations (lire notre réaction aux avis de IMCO et de CULT). Durant ce temps, nous rencontrions le plus grand nombre possible de membres de LIBE au Parlement et, après avoir rencontré l’équipe de Rachida Dati (chargée de mener les négociations en LIBE pour le groupe de droite PPE), dénoncions sa position encore plus dangereuse que celle de Dalton (lire notre article).

Acceptant enfin la gravité de ce règlement, les membres de LIBE ont été obligés de reporter leur vote par deux fois, jusqu’au 8 avril, se donnant trois semaines supplémentaires pour négocier le rapport. Trois semaines semblent un délai ridiculement court pour un texte si important – et il l’est -, mais le calendrier initial ne prévoyait même pas deux mois pour en débattre. La Commission comme les États membres se sont largement ingérés dans les affaires du Parlement (avec succès) pour exiger que celui-ci adopte un texte en première lecture avant la fin de son mandat, mi-avril, ce qui demandait l’adoption urgente du rapport LIBE.

Vous n’aurez pas manqué de le constater : tout ce débat contre le règlement terroriste s’est déroulé alors même que l’Union européenne débattait de la directive Copyright. Après que le Parlement ait arrêté une première position sur cette directive Copyright en septembre 2018, ce texte était parti en négociations inter-institutionnelles (« trilogue ») entre le Conseil de l’Union (qui réunit les gouvernements des États membres), la Commission européenne et des députés mandatés à cette fin par le Parlement, afin de trouver un compromis général. Ces négociations ont été très mouvementées, avec divers retournements de situation, tant est qu’il était bien difficile de prévoir la date de leur aboutissement (notamment de savoir s’il interviendrait avant ou après la fin de l’actuelle mandature).

Lorsque nous lancions début février notre page de campagne pour appeler les députés contre le règlement terroriste, ces négociations sur la directive Copyright n’étaient même pas finies, et nous ne pouvions guère savoir lequel des deux textes serait voté le premier par le Parlement.

Le trilogue sur Copyright aboutissait finalement peu après, fin février, et de nombreuses associations européennes alliées lançaient alors leur pleine campagne contre la directive Copyright, principalement autour de la plateforme Pledge2019, qui permettait à tout le monde de contacter les députés et à laquelle La Quadrature du Net a apporté sa signature dès le lancement.

Quelques semaines plus tôt, alors que les différentes campagnes contre ces deux textes se préparaient, nous avions pendant un temps pensé avec les associations européennes amies de La Quadrature faire une campagne unique contre les deux textes. On comprend bien pourquoi : les deux textes se fondent sur des mesures de filtrage automatisé et sur la place centrale confiée aux acteurs dominants du Web. Cette stratégie était d’autant plus intéressante qu’elle nous offrait une certaine souplesse, ne connaissant alors pas l’ordre dans lequel les deux textes seraient votés.

Fin février, l’idée d’une campagne unique a finalement été écartée, et ce pour des raisons très diverses, allant de l’espoir que la victoire contre la directive copyright pourrait suffire à convaincre les députés de corriger les pires mesures du règlement terroriste (stratégie qui ne nous a pas convaincu tant les deux sujets étaient différents), à la crainte que la campagne contre la directive Copyright soit moins mobilisatrice si elle était mélangée aux argument forcément plus graves et anxiogènes à invoquer contre le règlement terroriste.

À La Quadrature du Net, depuis plusieurs années, nous nous sommes malheureusement habituées à parler de morts et de massacres (ce qui est loin d’être agréable), ceux-ci étant systématiquement et honteusement récupérés par notre gouvernement pour renforcer illégitimement ses pouvoirs. Les associations d’autres pays n’en ont peut-être pas la même habitude (et tant mieux pour la santé mentale de leurs membres). Nous avons donc continué de mener la campagne contre le règlement terroriste pour laisser la grande majorité de nos alliés se concentrer contre la directive Copyright, avec le soutien que nous pouvions leur apporter (qui, il faut le reconnaître sans détour, aurait été plus important si les deux textes n’étaient pas tombés en même temps).

Toutefois, cette division de nos forces entre ces deux textes, aussi regrettable qu’inévitable, n’a peut-être eu qu’un effet assez secondaire comparé à un autre problème scandaleux : les médias dominants français, partie prenante de premier plan en faveur de la directive Copyright et alliés avec l’industrie culturelle à cette fin, ont ici largement renoncé à leur idéal d’impartialité. Inondant le public d’informations erronées et biaisées sur la directive, emportés dans leur campagne politique délirante, ils ont presque entièrement « oublié » de parler du règlement terroriste. C’est une situation parfaitement inédite pour la presse française s’agissant d’un texte d’une telle gravite, dont le public n’aura pris connaissance que par des associations militantes et quelques média spécialisés. La responsabilité des médias dominants français est immense dans la perte de libertés causée tant par la directive Copyright que par le règlement terroriste.

Au final, le vote final de la directive Copyright a été fixé au 26 mars, juste avant le vote en LIBE sur le règlement terroriste, repoussé lui au 8 avril. À une très courte majorité, le Parlement a accepté de sacraliser la surveillance économique de masse comme source de financement de la culture, sur la base des outils de filtrage automatisé inventés par Youtube avec son Content-ID (lire notre dernier appel à s’opposer à la directive Copyright et notre réaction à son adoption).

La lutte contre la politique promue par cette directive se poursuivra désormais au niveau national, avec diverses propositions législatives en cours en France sur lesquelles nous reviendrons très bientôt.

Le règlement adopté

Le 8 avril donc, la Commission LIBE a adopté sa version du règlement terroriste (lire notre réaction). Le vote en assemblée plénière pour une première lecture par le Parlement européen a été fixé moins de dix jours plus tard, au mercredi 17 avril. Durant ce très court délai, nous avons tout juste eu le temps d’étendre notre outil aidant à contacter les membres du Parlement (prévu au départ pour les 61 députés de la commission, nous l’avons étendu à l’ensemble des députés), ainsi que d’envoyer à ces derniers un courrier pour les avertir du danger du texte (lire notre courrier).

Tout ceci en vain. Car comme nous l’avons constaté de nous-mêmes directement depuis Strasbourg, le texte a été adopté en quelques minutes en première lecture, durant l’une des dernières séances du Parlement avant les élections de mai.

La version adoptée est, à un détail près, la version issue de la Commission LIBE.

Que modifie-t-elle précisément par rapport à la proposition de la Commission européenne de septembre ?

Le champ d’application est légèrement modifié. Suite à un lobbying intense des industries du « cloud », les acteurs visés ne sont maintenant plus que ceux qui stockent et mettent du contenu à disposition « du public » (et non plus « des tiers »), avec une sortie explicite des « services d’infrastructure en nuage » et des « fournisseurs de service en nuage ».

Le plus inquiétant est que la version conserve, en son article 4, la possibilité qu’une plateforme puisse être obligée de retirer en seulement une heure un contenu signalé comme terroriste par les autorités. Plusieurs amendements proposaient de supprimer ce délai d’une heure dont Daniel Dalton avait fait un symbole. L’amendement de suppression déposé par le groupe des Verts est rejeté de seulement 3 voix (297 pour et 300 contre – voir le résultat des votes).

Résultat des votes sur l’amendement supprimant le délai de retrait en une heure

Deux précisions sont néanmoins apportées : la première est que seule l’autorité du pays où le fournisseur de services a son établissement principal peut émettre ce type d’injonction ; la seconde est que si c’est la première fois que le fournisseur reçoit ce type d’injonction, l’autorité doit le contacter au moins 12 heures avant l’injonction. Ces précisions ne changent pas grand chose : que ce soit une ou treize heures, cela reste des délais beaucoup trop courts pour la plupart des acteurs du Web qui ne seront simplement pas en capacité de les respecter.

Quant à l’autorité compétente capable d’émettre de telles injonctions, il ne s’agit toujours pas uniquement d’un juge. Le texte précise maintenant qu’il peut s’agir d’une « autorité judiciaire ou autorité administrative fonctionnellement indépendante ». Mais la notion d’une autorité « fonctionnellement indépendante » peut être interprétée largement par les États membres et ne garantit en aucun cas la désignation d’une autorité juridiquement distincte du gouvernement (il est ainsi possible que l’OCLTCIC, l’office de la police nationale qui a déjà en France le pouvoir d’ordonner le blocage de sites faisant l’apologie de terrorisme soit considéré comme « fonctionnellement indépendant ») ;

L’article 5 permettant aux autorités de signaler un contenu à une plateforme est lui entièrement supprimé. S’il s’agit d’une victoire, elle reste très symbolique car, en pratique, les États et Europol continueront de recourir à ces signalements, qui ne sont ni interdits ni limités par la nouvelle version du règlement.

L’article 6 est profondément modifié. Il n’évoque plus des mesures « proactives » mais des « mesures spécifiques », et les fournisseurs de services ont désormais seulement la « possibilité » de les mettre en œuvre, et non plus une obligation générale de principe. Surtout, le texte précise que l’autorité compétente ne peut pas imposer d’ « obligation générale de surveillance, ni l’utilisation d’outils automatisés ». C’est probablement ici la plus importante victoire obtenue sur ce texte, même si, en pratique, les plateformes n’auront pas d’autre choix que de recourir en amont à des outils de filtrage automatisé pour ne pas s’exposer en aval à des demandes irréalistes de retrait en une heure.

L’article 9 prévoit enfin que les plateformes doivent systématiquement prévoir une vérification humaine « quant à la pertinence des décisions de suppressions des contenus ou d’interdiction à ceux-ci ». Un tel encadrement, rédigé d’une manière aussi large, pourrait s’avérer très intéressant pour limiter le recours au filtrage automatisé des contenus sur les plateformes en ligne, à condition toutefois qu’il soit interprété comme exigeant une intervention humaine s’agissant des filtres réalisés a priori (au moment de la mise en ligne du contenu) et pas seulement des modérations a posteriori – tout le risque de ce texte étant d’imposer en pratique des filtres a priori.

Au final, malgré quelques ajouts et modifications atténuant certains points problématiques, l’adoption de ce texte par le Parlement européen reste néanmoins avant tout une très lourde défaite. De manière générale, le texte promeut encore et toujours l’idée dangereuse que la censure des contenus en ligne peut être une réponse contre la diffusion d’idéologies meurtrières.

Surtout, en maintenant la possibilité pour une autorité administrative d’ordonner à n’importe quel acteur du Web le retrait en une heure d’un contenu (et cela sous la menace de lourdes sanctions) les institutions européennes vont forcer ces acteurs à adopter une interprétation large de la notion de « contenus terroristes » et à utiliser en amont des outils de filtrage automatisés.

Le fait d’interdire aux autorités de pouvoir imposer l’utilisation de ces outils ne change donc pas grand chose. Seuls les géants du Web pourront respecter ces obligations, d’où notre crainte d’un Web encore plus centralisé aux mains d’une poignée d’entreprises.

Enfin, les points de progrès qui ont pu être apportés par le texte de la Commission LIBE (suppression de l’article 5, adoucissement de l’article 6, délai d’une heure étendu dans certains cas précis, encadrement du filtrage automatisé) seront très certainement contestés en trilogue par la Commission européenne et les États membres les plus impliqués (dont la France). Il ne peut donc en aucun cas être crié victoire pour ces seules maigres avancées.

Et maintenant ?

Le texte tel qu’adopté sera donc la position du Parlement européen pour les négociations en trilogue à venir lors de la prochaine mandature avec la Commission européenne et le Conseil de l’Union européenne (regroupant les gouvernements des États membres). Le tout avant un autre vote, final cette fois-ci, par l’ensemble des nouveaux députés en séance plénière l’année prochaine.

Le combat est donc loin d’être déjà perdu, surtout lorsqu’on voit le nombre de voix qui ont manqué pour enlever le délai d’une heure (3 !) et les avancées (mêmes symboliques) que nous avons pu imposer en dépit des conditions et délais quasi-intenables dans lesquels s’est déroulé ce premier débat. Nous le disions en début d’article : le texte pourra encore être modifié en seconde lecture, mais cela nécessitera une nouvelle mobilisation dans quelques mois, au moment des trilogues et des débats au Parlement. Si l’on veut parvenir au rejet de ce texte, ou à tout le moins à le vider de l’essentiel de sa substance, cette mobilisation nécessitera la participation de l’ensemble des associations européennes et une implication beaucoup plus importante des médias sur le sujet, dans des circonstances qu’il faudra espérer plus propices.

C’est à cette condition que l’on peut espérer parvenir à repousser la censure de masse et automatisée qui est au cœur de ce texte.

Avant de nous lancer dans cette nouvelle lutte, prenons le temps de remercier toutes celles et ceux qui ont participé à cette campagne et ont aidé aux premières victoires qui ont pu être acquises : toutes les associations et organisations (françaises et européennes) qui ont milité, avec nous ou de leur côté, pour faire tomber ce texte ou ses pires dispositions (notamment les 61 signataires de la lettre ouverte adressée à Emmanuel Macron), toutes les personnes qui ont relayé et aidé à relayer nos articles et communications, toutes celles aussi qui ont contacté les députés européens (et celles qui sont venues le faire avec nous dans nos locaux), celles qui ont aidé la traduction de notre site (en anglais et en allemand). Merci <3 !

À dans quelques mois pour la suite de la lutte !