Combattre le capitalisme identitaire

Posted on


Cet article a été écrit dans le courant de l’année 2019 et participe d’un dossier réalisé pour Ritimo “Faire d’internet un monde meilleur” et publié sur leur site.

Il ne fait désormais plus aucun doute que le marché de la surveillance est en plein essor. Des sociétés vendent aux États des systèmes d’identification des populations, à des fins de contrôle, pour des marchés se comptant en milliards d’euros. En France, de plus en plus de villes mettent en place des systèmes invasifs, qu’il s’agisse d’ériger des portiques de reconnaissance faciale dans les lycées (comme à Nice et Marseille La Quadrature du Net, « Reconnaissance faciale au lycée : l’expérimentation avant la généralisation », 19 déc. 2018, https://www.laquadrature.net/2018/12/19/reconnaissance-faciale-au-lycee-lexperimentation-avant-la-generalisation/), de déployer des drones (en dépit de la faune locale qui ne les apprécie que peu, comme à Paris Jean-Muchel Décugis, « Paris : les goélands attaquent les drones de la police », 25 juin 2019, http://www.leparisien.fr/faits-divers/les-goelands-attaquent-les-drones-de-la-prefecture-de-police-de-paris-25-06-2019-8102361.php ; voir aussi une vidéo de La Quadrature « Comment lutter contre la surveillance en manif ? », https://video.lqdn.fr/videos/watch/b1f10929-b471-4caf-8fbe-5c8dade9142f) ou de forcer les habitants à s’identifier sur des services en ligne pour interagir avec leur administration – comme l’illustre notamment le site Technopolice.

Il y a également un autre marché plus insidieux, que l’on suppose parfois moins nuisible que celui, brutal, de la surveillance par les États. C’est celui de l’économie de l’attention, de la marchandisation de nos comportements et de nos identités. Ne nous trompons pas de sujet, la plupart des multinationales hégémoniques du numérique (Google, Apple, Facebook, Amazon et Microsoft – GAFAM par la suite) parlentQuand ils n’évitent pas tout bonnement le sujet où n’utilisent des tournures encore plus alambiquées. de vente et d’exploitation de données personnelles et non de comportement, car la donnée est abstraite et omniprésente. Il est difficile de s’opposer à une collecte de données personnelles ou de métadonnées. La donnée est abstraite, une modélisation mathématique, et peut-être isolée, car il est difficile d’en percevoir l’effet au quotidien. Pourtant si l’on parle des comportements que décrivent ces données, alors il devient beaucoup plus évident de s’opposer à cette collecte et à leurs marchandisations.

Parler de capitalisme des comportements, de capitalisme des identités, de capitalisme identitaire, au lieu de capitalisme de surveillance ou de l’économie de l’attention, permet de rendre concret et palpable ce que font réellement les GAFAM. Ils analysent nos comportements dans le but de nous forcer à nous comporter de certaines façons. De plus, cela permet de mettre en lumière le fait que les pratiques de surveillance des États et ce capitalisme du comportement sont en fait souvent les deux faces d’une même pièce de cette surveillance. D’autant que les acteurs de ces deux formes de surveillance sont, de fait, souvent les mêmes. Palantir, par exemple, la société qui a obtenu un marché d’analyse de grandes quantités de données pour la DGSIHervé Chambonnière, « Palantir. La « boule de cristal » des services de police et de renseignement », 10 juin 2019 https://www.letelegramme.fr/france/palantir-la-boule-de-cristal-de-la-dgsi-10-06-2019-12307531.php en France, est fondée par Peter Thiel. Qui est également le fondateur de PayPal, le premier financeur externe de Facebook et qui, via le fonds d’investissement duquel il fait partie, investit également dans Airbnb, Lyft, Space X (le programme spatial d’Elon Musk) et Spotify.

Palantir est loin d’être le seul exemple. La société Amesys, ancienne filiale du groupe Bull, s’est fait connaître par la vente d’un système de surveillance à Mouammar KadhafiOlivier Tesquet, « Amesys, cette société française qui aidait Kadhafi à surveiller les Libyens », 17 mars 2016 mis à jour le 1 fév. 2018, https://www.telerama.fr/medias/amesys-cette-societe-francaise-qui-aidait-kadhafi-a-surveiller-les-libiens,139820.php. Ou encore Amazon, qui héberge le cloud de la CIA (un petit contrat à 600 millions de dollars tout de même). Ou Google qui, via le projet Maven (officiellement abandonné en 2019 suite à des pressions des employé·es de Google), entraîne les drones à faire de la reconnaissance de cibleNicholas Montegriffo, « Le créateur de l’Oculus Rift se joint au controversé Project Maven », 11 mars 2019 https://www.androidpit.fr/createur-oculus-rift-project-maven. C’est un phénomène global qui touche énormément d’entreprises du numérique, comme le documentent, par exemple, Transparency Toolkit et Privacy InternationalAutour d’un projet visant à établir les entreprises privées du secteur de la surveillance, Surveillance Industry Index, https://sii.transparencytoolkit.org/ et https://www.privacyinternational.org/explainer/1632/global-surveillance-industr.

Ces capitalistes identitaires tirent leur richesse du travail que nous leur fournissons gratuitement en alimentant leurs gigantesques collections de données comportementales. Chaque fois que vous lisez quelque chose en ligne, que vous regardez une vidéo, que vous la repartagez avec d’autres ou non, chaque action minime que vous entreprenez sur Internet, permet à ces ogres gargantuesques de s’enrichir encore plus, d’accumuler encore un peu plus de contrôle tout en évitant de s’y soumettre, renforçant toujours plus l’asymétrie propre aux systèmes capitalistiques. Cela engendre également une forme de prolétariat. Une dépossession des travailleu·ses dans ces systèmes de leurs outils de production, pour ne se voir évaluer qu’en fonction de leur « crédit social ». Qu’il s’agisse du nombre d’étoiles du chauffeur supposé indépendant, mais aliéné à Uber (ou Lyft), ou le nombre de vues de votre profil Facebook ou de contenus sur Instagram, le « score p » de votre chaine YoutubeSylvqin, « P-Score : comment Youtube a noté les chaînes des créateurs (et a oublié de le cacher) », 1 nov. 2019, https://www.youtube.com/watch?v=PYrJq7r90Ao, votre valeur dans ce système capitaliste est celle que les plateformes de gestion de contenus vous donnent.

Ce n’est pas la qualité intrinsèque du contenu de ce que vous publiez, ou de ce que vous lisez, qui compte. C’est le score que vous attribue une entreprise de manière arbitraire qui décide de votre valeur, de ce que vous êtes pour la société, de ce à quoi vous aurez accès. Ces gigantesques entrepôts d’information sur les comportements et les identités sont gérés par des entreprises qui cherchent à gagner toujours plus et à n’importe quel prix, au mépris de l’éthique et même des lois. Elles n’hésitent pas à collaborer et à renforcer les systèmes oppressifs existants pour conquérir de nouveaux marchés. Ces entreprises n’ont pas fait exprès, elles sont désolées et promis juré, la prochaine fois elles feront mieux, développant une culture de l’excuseBenjamin Ferran, « Facebook, Google et la culture de l’excuse permanente », 5 oct. 2017, http://www.lefigaro.fr/secteur/high-tech/2017/10/05/32001-20171005ARTFIG00097-les-geants-de-la-tech-et-la-culture-de-l-excuse-permanente.php voir en ce sens 14 ans d’excuses de Facebook : Geoffrey A. Fowler Chiqui Esteban April, « 14 years of Mark Zuckerberg saying sorry, not sorry », 9 avril 2018, https://www.washingtonpost.com/graphics/2018/business/facebook-zuckerberg-apologies et s’exonérant à l’inverse de toute responsabilité.

Ces entrepôts comportementaux permettent aux États de renforcer encore plus leurs appétits pour obtenir toujours plus de moyens de contrôle des populations dans une forme de « partenariat public privé de la surveillance ». Appétits qui sont ensuite nourris par les nouvelles avancées technologiques proposées par les GAFAM, créant ainsi un cercle vicieux, affaiblissant encore plus les prolétaires au contrôle sur leurs comportements et identités, afin de toujours donner plus aux mêmes et de permettre à cette classe de très riches cyberbourgeois de continuer de bénéficier d’un pouvoir de plus en plus total sur nous.

Il existe cependant des moyens pour mettre à mal ce capitalisme identitaire. Se saisir des moyens de production apparaît comme l’une des façons les plus efficaces, qu’il s’agisse des machines de productions des ouvriè·res industriel·les ou des systèmes de production et de consommation d’information. De la même manière que le travail à la chaîne a retiré aux ouvrier·es leurs statuts et les ont asservi aux machines en les dépossédant de leurs compétences et connaissances, les systèmes centralisateurs des GAFAM cherchent à nous empêcher de comprendre comment fonctionnent les échanges d’informations pour nous déposséder de notre connaissance.

Leur force, en plus de l’appétence des États en quête de toujours plus de contrôle, est d’être parvenus à transformer un système géré en communauté – Internet – en un système géré par eux. Pour s’affranchir de leur contrôle, il faut s’affranchir de leurs solutions, de leurs outils. L’Internet des protocoles, par exemple, est un premier pas dans cette direction (voir l’article L’Internet des Protocoles dans ce même dossier). Mais seul, il ne suffit pas. Il faut que nous prenions tou·tes conscience que ce problème s’étend bien au-delà de nos simples espaces en ligne. L’identification systématique requise pour utiliser des services, quels qu’ils soient, en forçant la création (ou l’association) d’un « compte », nous identifiant, de préférence avec un système d’identification centralisée, renforce le pouvoir de ces GAFAM et des États sur nous. Cela nous force également, nous militan·tes, à nous soumettre à leur bon vouloir pour constituer les archives de nos luttes, pour coordonner nos actions ou simplement pour prendre des nouvelles les un·es des autres.

Requérir d’une personne qu’elle dispose d’un compte Google pour accéder aux discussions internes à un groupe est dangereux et vous coupe des personnes qui refuseraient d’avoir un tel compte. Mais exiger qu’elle ouvre un compte sur une plateforme « sécurisée » quelconque n’est pas forcément une meilleure idéeComme cela peut être détaillé dans la brochure « Parlons de Signal », 29 juil. 2019, https://iaata.info/Parlons-de-Signal-3517.html. Si votre liste de militant·es pour l’environnement est rendue publique, il y a fort à parier que votre mouvement en pâtisse. En France comme ailleurs, les services de renseignements utilisent de plus en plus les médias sociaux comme source de renseignementEt ce sans cadre légal spécifique, voir aussi Léa Sanchez, « Après les « gilets jaunes », les services de renseignement veulent mieux anticiper les mouvements sociaux », 18 juil. 2019, https://www.lemonde.fr/societe/article/2019/07/18/les-services-de-renseignement-veulent-mieux-anticiper-les-mouvements-sociaux_5490588_3224.html. Lorsque votre réseau social privé sera compromis, le fait que les communications soient chiffrées ne vous protégera pas. Utiliser un protocole de chiffrement est un bon premier pas, mais ne suffit pas à lui seul. L’analyse des données comportementales — qui parle à qui et quand — via les métadonnéesOlivier Clairouin et Martin Vidberg, « Comment les métadonnées permettent de vous surveiller (expliqué en patates) », 1 juil. 2015, https://www.lemonde.fr/pixels/video/2015/06/15/comment-les-metadonnees-permettent-de-vous-surveiller-explique-en-patates_4654461_4408996.html suffit à mettre en danger les personnes. Savoir comment sont chiffrées vos communications, ou qui a accès à tel ou tel élément de la conversation est tout aussi important. Les systèmes de messageries privées mis en place par les GAFAM et les entreprises qu’elles financent, directement ou non (WhatsApp, Messenger, iMessage, etc.) ne permettent pas de répondre à ces questions, même si le logiciel est à code ouvert.

Car un programme, quel qu’il soit, s’exécute dans un environnement social et technique. Cet environnement est tout aussi important que le code source. Les nombreux échecs de l’utilisation d’algorithmes pour essayer de modérer les discussionsOkhin – La Quadrature du Net, « De la modération », 22 juil. 2019, https://www.laquadrature.net/2019/07/22/de-la-moderation/ sont très souvent liés aux biais personnels des personnes développant ces logiciels, ces personnes étant souvent des hommes blancs, relativement aisés, vivants sur la côte ouest des États-Unis. Mais au-delà des problématiques politiques, des limitations matérielles et légales existent. Par exemple, si le système de génération de nombre aléatoire d’un ordinateur est modifié pour ne générer que des nombres prédictibles (par exemple, que des 1), alors tous les algorithmes de chiffrement utilisant cet ordinateur sont instantanément cassés et inefficaces, sans pour autant que l’utilisat·rice du service ne remarque quoi que ce soit. Par ailleurs, il existe des territoires sur lesquels les nations obligent des entreprises à ajouter des faiblesses dans leurs logiciels, via des « portes dérobées » communément appelées backdoorsUne porte dérobée est une fonctionnalité cachée et inconnue des utilisat·rices d’un outil informatique permettant aux personnes qui l’ont introduite de prendre contrôle de tout ou partie de cet outil souvent au détriment de ses utilisat·rices (par exemple pour les espionner ou pour installer d’autres logiciels sur l’ordinateur), pour plus de détails voir par exemple : la page https://fr.wikipedia.org/wiki/Porte_d%C3%A9rob%C3%A9e ou https://www.panoptinet.com/culture-cybersecurite/cest-quoi-un-backdoor-porte-derobee.html ou du « chiffrement responsable »Qui est en réalité totalement irresponsable, ouvrant une porte dérobée permettant le déchiffrement des contenus sans que la personne ne le souhaite remettant en cause toute la sécurité du dispositif, pour plus d’explications : Yves Grandmontagne, « ‘Chiffrement responsable’ : les irresponsables des backdoors », 20 nov. 2017 https://itsocial.fr/enjeux/securite-dsi/cybersecurite/chiffrement-responsable-irresponsables-backdoors/. Ces pratiques sont de plus souvent tenues secrètes par des procédures bâillonsWeronika Zarachowicz, « Comprendre les procédures-bâillons : le stade ultime de l’intimidation judiciaire », 16 mai 2017 mis à jour le 1 fév. 2018, https://www.telerama.fr/monde/comprendre-les-procedures-baillons-le-stade-ultime-de-l-intimidation-judiciaire,158229.php. De fait, il est malheureusement illusoire de penser que le seul fait que le logiciel soit à code ouvert est une garantie suffisante de protection des communications.

Il est donc impératif de résister aux sirènes de l’identification systématique sur les pages et services en ligne. La plupart des contenus que vous consultez ne changent pas en fonction de votre identité. Ou ne devrait pas. Que je sois Arthur, Ahmed ou Amélie ne devrait pas changer le contenu d’un journal ou d’un livre que je consulte. Certes, une personne me connaissant pourra me recommander tel ou tel livre en fonction de mes goûts personnels, pour peu que je les partage avec elle, mais il me reste possible de prendre un média au hasard et son contenu sera le même pour moi que pour tous les autres. Ou devrait être le même. Les commentaires, idées, ou autre, que je produis et souhaite rendre publiques ne devraient pas être limités par l’accès aux seul·es membres d’un club privé et restreint, mais rendus disponibles à toute personne voulant les lires, les commenter, les critiquer ou les partager avec ses ami·es.

Au-delà du simple contenu, la manière dont nos comportements transitent en ligne est aussi importante et est souvent associée à une identité. Les adresses IP, attribuées par des fournisseurs d’accès à Internet, ou les numéros IMEI de vos téléphones portables, très souvent associés à une déclaration d’identité, sont également utilisés pour faire du profilage (par exemple, bon nombre de publicités vous localisent géographiquement relativement précisémentVoir par exemple, Julie rédactrice chez Tactill, « Les meilleurs outils pour une publicité géolocalisée », 5 déc. 2017, https://www.tactill.com/blog/les-meilleurs-outils-pour-une-publicite-geolocalisee/).

Il est donc fondamental, pour se réapproprier les moyens de production numérique, de se réapproprier nos collectifs et nos identités, de questionner les structures s’occupant de convoyer ces petits bouts de comportements d’un point à l’autre de la planète.

Au plus bas niveau, cela peut être de créer ou de rejoindre un fournisseur d’accès à Internet associatif, comme l’un de ceux fédérés autour de la FFDNFédération des Fournisseurs d’Accès Internet Associatifs, https://www.ffdn.org/. À un niveau plus élevé, il peut s’agir d’utiliser d’autres moyens de se connecter à Internet que de passer par la seule ligne fournie par votre fournisseur, en utilisant des protocoles de routage alternatif comme Tor ou GNUNet. Mais il est également de notre responsabilité à tou·tes de documenter nos usages, d’archiver nos luttes, de les partager et de les faire circuler. Sans que tout le monde ne devienne ingénieur·e en systèmes et réseaux, permettre à chacun·e de pouvoir accéder au contenu de la manière qui l·a protège le plus sans qu’iel n’ait à décliner son identité est fondamental.

Les réflexions sur la gouvernance et l’Internet des protocoles doivent aussi s’inscrire dans une vision politique plus large. Par exemple, les archives de discussions d’il y a cinq ans sont-elles réellement nécessaires ? Et si oui, ne serait-il pas possible de les conserver sous la forme d’un texte de positionnement reprenant les éléments clefs de cette conversation, supprimant le nom des personnes qui ont tenu ces propos il y a cinq ans et permettant aux nouve·lles venu·es d’avoir la réponse à une question qu’iels auraient pu poser et rejouer de nouveau cette discussion ?

À l’inverse, les conversations quotidiennes, qui font le sel du travail militant, qui nous permettent de tenir le coup, de veiller les un·es sur les autres, n’ont pas nécessité à être mises à disposition du public au-delà de l’intervalle de temps dans lequel elles prennent place. C’est le deuxième point important et nécessaire pour s’affranchir du contrôle des capitalistes identitaires. Il faut se poser la question de ce que l’on garde comme données, comme traces de comportement. Même les inscriptions aux casiers judiciaires sont censées être limitées dans le temps et avoir une date au-delà de laquelle on considère que la personne a suffisamment changé pour ne pas se voir chargée à vie de ses actions passéesMalheureusement ces délais en plus d’être très longs ne sont pas toujours très bien respectés.. Même à des fins d’observation des comportements à l’échelle de la société, il est souvent bien plus efficace de ne conserver que des données dites consolidées, c’est à dire étant le résultat d’un traitement statistique, et non le détail de chaque donnée. Enfin, dans le cadre d’étude scientifique, notamment médicale, mais aussi sociologique, le consentement des personnes participant·es à cette étude est un préalable à toute forme de travail scientifique, il devrait en être de même pour l’analyse comportementale, expérimentale ou non.

Distribuer la responsabilité de la gestion au plus grand nombre, se poser la question de la persistance des données et de l’accès à celles-ci sont les moyens par lesquels il devient possible de se réapproprier nos moyens de production culturelle et informationnelle, de reprendre le contrôle sur l’identité que nous voulons afficher auprès des autres. C’est aussi le meilleur moyen d’attaquer les GAFAM là où il sera possible de leur faire le plus de dégâts : le portefeuille. Si un Internet hors des plateformes se développe, alors ces entreprises n’auront plus la possibilité de toujours fournir plus de données aux États, brisant ainsi le cercle vicieux et la course à la plus grande quantité de comportements analysés et disséqués.