Le vrai visage de la reconnaissance faciale

Posted on


La Quadrature du Net est contre la reconnaissance faciale, d’accord : mais pourquoi ? Dès qu’on aborde le sujet en public, on voit se dessiner deux attitudes opposées. D’un côté, le solide bon sens qui ne voit pas pourquoi on se priverait de la possibilité d’identifier efficacement les criminels dans une foule, et pour qui tous les moyens sont bons, puisque la fin est juste. De l’autre côté, la peur réflexe devant cette technique de surveillance – souvent plus vive que devant d’autres techniques de surveillance pourtant très répandues – parce qu’elle est exploitée au cinéma comme outil d’un pouvoir policier totalitaire. C’est entre ces deux pôles, fantasme contre fantasme, qu’on peut essayer de comprendre les enjeux de la reconnaissance faciale.

Reconnaissance facile

Un terroriste est en fuite dans les rues d’une capitale : il suffit d’analyser en direct les images des caméras de surveillance de la ville pour le situer en quelques minutes. Un enfant s’est perdu ? Vite, les caméras de tous les lieux publics sont interrogées, et l’enfant est retrouvé en moins d’une demi-heure.
Les personnes chargées de vendre des systèmes de reconnaissance faciale ne manquent pas d’imagination pour convaincre le grand public de l’efficacité de leurs produits. Le contexte sécuritaire, accentué par les attaques terroristes de 2015, entretenu par le personnel politique et amplifié par les médias de masse, leur ouvre un boulevard idéologique et des lignes de crédit généreuses.
Autant dire qu’en matière de fantasme, les partisans de la reconnaissance faciale généralisée ne sont pas en reste. Le seul fait que la surveillance permanente des rues et des espaces publics soit considérée comme une solution miracle à l’insécurité dans la société devrait suffire à disqualifier l’outil : il est incapable de répondre aux objectifs qu’on veut lui donner.

Comment ça marche ?

Il existe plusieurs types de reconnaissance faciale. Leur point commun, c’est un logiciel capable de repérer dans une image (photo ou vidéo) des structures de visage et de les comparer point à point avec d’autres images. Il faut ensuite distinguer deux formes de « reconnaissance ».
Si on compare les images avec d’autres images de la même source – les différents angles de vue dans une galerie commerciale, par exemple – alors on veut « identifier » quelqu’un : c’est-à-dire isoler une personne (« identique » à elle-même !) parmi d’autres et la suivre ainsi dans ses déplacements, soit parce qu’on estime qu’elle a un comportement suspect, soit pour renseigner la galerie commerciale sur le parcours de ses clients.
Quand on reconnaît les visages dans une foule pour les comparer à un jeu de visages de personnes recherchées, il s’agit aussi de les « identifier ».

En revanche, on parle d’« authentification » quand on compare le visage d’une personne à un visage de référence. L’authentification est couramment utilisée comme système de déverrouillage : le visage saisi par la caméra doit correspondre à l’image enregistrée dans un badge (c’est le cas du système prévu pour les lycées de la région Sud) ou dans une base de donnés de personnes autorisées (par exemple à l’entrée d’une entreprise). C’est un procédé testé aussi pour le retrait d’argent à un distributeur, en renfort du PIN.
C’est le seul exemple où la reconnaissance faciale vise à protéger la confidentialité des données et l’intimité de la personne : quand on choisit de déverrouiller son téléphone avec la reconnaissance faciale, c’est parce qu’on espère que personne d’autre ne pourra le faire.

L’identification est utilisée par la police pour reconnaître des personnes recherchées. On peut en voir un exemple concret sur le site d’Interpol.
Des exemples comme celui-ci alimentent le fantasme qui sous-tend la reconnaissance faciale : si on peut scanner tous les passants et identifier ceux qui sont suspects, alors la criminalité reculera et la sécurité augmentera.

Méconnaissance faciale

Mais le moindre défaut de la reconnaissance faciale, c’est qu’elle ne marche pas très bien. On le sait parce que de nombreuses expériences sont conduites dans le monde, et que les résultats publiés sont assez étonnants, en comparaison des espoirs démesurés que suscite la technique.
La société SenseTime, en Chine, se vante par exemple de pouvoir identifier un individu qui commet une « incivilité » dans la rue, afin d’afficher son visage sur des écrans géants et le soumettre au mépris public. Mais une expérience menée aux États-Unis s’est conclue sur le constat que la reconnaissance faciale sur des automobilistes ne fonctionne pas encore.


Ce document fuité par la police britannique recense, pour chaque expérience de reconnaissance faciale (Event), le nombre d’identifications réussies (True-positives), le nombre de faux positifs (False-positives), et le nombre d’interpellations injustifiées (Incorrect police stops).

Nos collègues de Big Brother Watch, au Royaume-Uni, qui militent entre autres choses contre l’utilisation de la reconnaissance faciale, ont publié les chiffres des expériences menées par la police britannique. Ils montrent notamment que le taux de reconnaissance est très bas, et que les « faux positifs », c’est-à-dire les identifications erronées, sont nombreuses. Certaines ont même entraîné des interventions infondées de la police.

La sécurité des forts

L’échec des identifications n’est pas imputable seulement à un défaut de la technique : le germe de l’échec est dans les hommes qui programment la reconnaissance faciale. Le logiciel qui analyse les visages et les compare à d’autres visages est dans la plupart des cas conçu par des hommes blancs. Surprise : la reconnaissance faciale des femmes et des personnes non-blanches atteint un taux d’échec et de faux positifs supérieur à la moyenne.
Que ses concepteurs le veuillent ou non, ce qu’on appelle « les biais de l’algorithme », ses effets indésirables, sont en réalité les biais cognitifs de ceux qui le conçoivent : le racisme et le sexisme de l’algorithme dérivent du racisme et du sexisme institués par la société, et consciemment ou inconsciemment reproduits par les concepteurs de ces outils.
Cet article donne plusieurs exemples des effets de ce biais.
Dans le cadre d’un usage policier de la reconnaissance faciale, les personnes les plus faibles socialement seront ainsi plus souvent victimes d’erreurs policières que les autres.

Société de contrôle

Les philosophes Michel Foucault et Gilles Deleuze ont défini de façon très précise plusieurs types de coercitions exercées par les sociétés sur leurs membres : ils distinguent en particulier la « société disciplinaire » (telles que la société en trois ordres d’Ancien Régime ou la caserne-hôpital-usine du XIXe siècle) de la « société de contrôle » qui est la nôtre aujourd’hui.
Dans une « société de contrôle », les mécanismes de coercition ne sont pas mis en œuvre par des autorités constituées qui les appliquent au corps social par contact local (autorité familiale, pression hiérarchique dans l’usine, surveillant de prison, etc.), mais sont incorporés par chacun (métaphoriquement et littéralement, jusqu’à l’intérieur du corps et de l’esprit), qui se surveille lui-même et se soumet à la surveillance opérée par d’autres points distants du corps social, grâce à une circulation rapide et fluide de l’information d’un bord à l’autre de la société. Wikipédia donne un bon aperçu du concept, dont on trouvera une lecture plus approfondie ici.

Qui peut souhaiter d’être soumis à un contrôle dont les critères lui échappent ? C’est pourtant ce que nous acceptons, en laissant s’installer partout la vidéosurveillance et la reconnaissance faciale.
La mairie de Nice, dirigée par par Christian Estrosi (LR), a fait scandale au printemps 2019 en organisant une expérience lors du carnaval de la ville. Sur la base du volontariat, certaines personnes préalablement identifiées devaient être reconnues dans la foule. Mais la ville de Nice envisage d’aller plus loin, en authentifiant les passagers du tramway dont le comportement serait « suspect ».
Qu’est-ce qui définit un comportement suspect ? Avoir un type maghrébin et un sweat à capuche entre sûrement dans les critères. Mais quoi d’autre ? Une expression faciale fermée, une nervosité visible ? Quelles émotions sont-elles considérées comme étant un danger pour la société ? Où peut-on consulter la liste ? On voit bien la part fantasmatique et arbitraire qui fonde tout projet d’anticiper la criminalité.

Sous prétexte que « prévenir vaut mieux que guérir », on organise en réalité, dans des usages quotidiens bien réels et valables dès aujourd’hui, une inversion générale de la charge de la preuve.
En temps normal, la police judiciaire doit rassembler par l’enquête des preuves à charge pour inculper quelqu’un. C’est à l’accusation de faire la preuve de la culpabilité du suspect. Ce travail est collectif, encadré par une procédure et un tribunal.
En revanche, sous l’œil de la caméra et face aux algorithmes de reconnaissance faciale, c’est à chacun que revient, à tout instant et en tout lieu, la charge de prouver son innocence. Comment ? En offrant son visage à l’identification et en adoptant un comportement qui ne déclenchera aucune alarme au fond d’un ordinateur de la police.

La loi de l’œil

On peut penser qu’il s’agit, sous nos yeux, d’un choix de société délibéré. En l’absence de cadre juridique clair, les dispositifs de reconnaissance faciale s’installent dans la hâte, avec un effet immédiat : chacun intériorise la contrainte de la surveillance et adapte insensiblement son comportement à ce regard abstrait. Il est psychologiquement moins coûteux de s’y plier, même avec une ironie protectrice, plutôt que de remettre en cause les décisions arbitraires qui sont imposées sans discussion.
L’intériorisation de la surveillance, la culpabilité par défaut, s’accompagne d’un ajustement inconscient à une loi non écrite. C’est une forme de l’effet Hawthorne, ou du « chilling effect » : le fait de savoir qu’on est peut-être surveillé entraîne qu’on modifie plus ou moins consciemment son attitude. La surveillance n’a pas besoin de punir chaque individu pour s’exercer sur tous, et elle n’a même pas besoin d’être réelle à chaque instant.
Refuser la reconnaissance faciale et inscrire ce refus dans la loi est une première nécessité.

Éducation au contrôle

Pourquoi vouloir installer un dispositif de reconnaissance faciale à l’entrée d’un lycée ? C’est en cours à Marseille et à Nice, encore un projet porté par monsieur Estrosi et combattu par La Quadrature du Net. Quel intérêt, alors que des surveillants à l’entrée de l’établissement pourraient tout aussi bien reconnaître les élèves autorisé·es, repérer les intrus, et régler les problèmes éventuels avec humanité ? La réponse est triste : parce que la machine est censée être moins chère.
La dépense s’amortit en quelques années et les services publics croient faire ainsi des économies, dans un contexte général où les problèmes sociaux sont délégués à l’entreprise privée ou plus souvent laissés à l’abandon, et abordés sous l’angle unique de la répression.
L’installation de caméras est le signe assez sûr d’une politique qui a baissé les bras. La reconnaissance faciale pousse seulement le curseur plus loin dans la prise en charge des relations humaines par des arbres de décisions préprogrammés. On renonce ostensiblement à l’ambition de construire une société.

Bénéfices et usage commerciaux

Les bénéfices attendus de la reconnaissance faciale sont en grande partie des mesures d’économie : moins de personnel pour surveiller de plus grandes surfaces urbaines, et un meilleur ajustement des moyens d’intervention. Les expériences de « safe city » menées aux États-Unis (Chicago, Detroit, en particulier) avaient par exemple pour but de mieux définir les quartiers et les rues où les patrouilles devaient circuler, en fonction des heures de la journée et même des saisons, pour être au plus près des faits de délinquances à réprimer. Dans la logique de la moindre dépense et de la réduction des effectifs, il faut bien « optimiser » le temps de présence des agents et le peu de moyens dont on dispose. Malheureusement, le raisonnement est faussé : les dispositifs techniques de vidéosurveillance exigent un entretien très coûteux. Les communes ne feront aucune économie, et financent les caméras avec des sommes qui manquent cruellement sur d’autres lignes de leur budget. Entre temps, elles auront supprimé un certain nombre de salarié·es.

Mais il ne faut pas perdre de vue que la reconnaissance faciale est également un « marché » aux bénéfices importants.
Pour l’heure, les entreprises se livrent à une course pour concevoir les outils et trouver des villes où les essayer. Ça tombe bien, les villes sont en demande : des appels d’offre sont donc lancés un peu partout en France, alors que la transparence des décisions finales est inexistante (lire notre article sur Saint-Étienne), et tandis que les communes sabrent les subventions, l’argent magique ne semble pas manquer pour payer des « solutions » sécuritaires à grand frais, en vue des échéances électorales qui approchent.
Derrière l’engouement pour la vidéosurveillance et la reconnaissance faciale, on voit une convergence d’intérêts entre un agenda politique qui joue volontiers sur la corde de la sécurité publique, et des entreprises qui cherchent à s’emparer de l’immense marché municipal qui s’ouvre à elles, en France d’abord, et dans le monde ensuite.

Le profit à tirer de la reconnaissance faciale ne s’arrête pas là. On voit la technique s’installer aussi dans des centres commerciaux. Les caméras sont le plus souvent cachées dans les panneaux d’informations qui affichent le plan de la galerie commerciale, comme au Québec ou dans les « totems » qui affichent des vidéos publicitaires. Les réactions des passants sont épiées : quelles images retiennent leur attention, quelles boutiques envisagent-ils de visiter, quels sont leurs déplacements, etc. Le but étant bien sûr d’offrir aux visiteurs « la meilleur expérience possible »…
À aucun moment le consentement des passants n’est demandé, et on ne voit pas bien comment il pourrait l’être, sauf à leur donner le choix entre subir la vidéosurveillance ou quitter les lieux. Devra-t-on bientôt faire ses courses avec un sac sur la tête ?

La question du consentement est centrale dans la protection des données personnelles et de la vie privée, elle est d’ailleurs au centre des exigences du RGPD. Ce n’est donc pas un argument léger. Les lois européennes disent aussi que le consentement ne peut pas être obtenu en échange d’un service qui reviendrait à lui donner une valeur marchande : justifier la reconnaissance faciale dans les galeries commerciales en prétextant que les clients auront de meilleurs prix ou de meilleures offres n’est pas un argument recevable. C’est au pire un cache-misère pour l’avidité sans limite des marchands, qui traitent tous les passants comme des proies.
Les utilisations commerciale ou municipales de la reconnaissance faciale prospèrent dans une faille juridique : le phénomène est mal encadré, alors qu’il devrait faire l’objet d’un débat collectif. Mais la sécurité policière et la prospérité des entreprises commerciales sont devenues dans le monde entier l’alpha et l’oméga des politiques publiques.

La possibilité d’interdire

Les personnes les mieux averties des applications de la reconnaissance faciale sont tellement inquiètes qu’elles demandent un encadrement juridique de cette technique. C’est la leçon qu’on peut tirer de la lecture des articles écrits par Brad Smith, juriste de Microsoft. En juillet 2018, il appelait le gouvernement américain à légiférer sans délai pour encadrer les usages de la reconnaissance faciale. Bien placé pour constater les progrès de la technique, il redoute avec gravité qu’elle puisse être utilisée contre les libertés des personnes, aussi bien par des entreprises privées que par des États. En décembre 2018, il pose quelques jalons pour délimiter le contour de cet encadrement juridique.

On n’est pas obligé de partager son enthousiasme pour certaines applications « positives » de la reconnaissance faciale, dont il donne des exemples qui mériteraient d’être regardés de plus près (dans la recherche médicale par exemple). Mais on peut entendre son inquiétude, parce qu’elle n’est pas celle d’un militant habitué à crier au loup : au plus haut niveau de décision, là où une vision panoramique peut embrasser à la fois la connaissance du droit et la connaissance des projets techniques réels, on n’en mène pas large, et ce n’est pas bon signe.

Toutefois, l’empressement de Brad Smith à voir naître une réglementation peut aussi être lu différemment, si on le rapproche des déclarations récentes de Andy Jassy, président de Amazon Web Services, qui développe le logiciel Rekognition. Il se trouve qu’entre les articles de Brad Smith et l’interview de Andy Jassy, un événement important est survenu : la ville de San Francisco, en Californie, au plus près de la Silicon Valley et des grands sièges des multinationales du numérique, a voté le 14 mai 2019 une décision interdisant à la police locale d’utiliser la reconnaissance faciale. Amazon veut une réglementation parce que l’interdiction pure et simple ne fait pas de bien à ses affaires…
Quant à nous, nous retiendrons qu’il est possible d’interdire les pratiques de surveillance de masse, par la délibération locale et par la loi.

Le visage perdu

La reconnaissance faciale change le visage du monde. Il n’est pas nécessaire de renvoyer aux pires dystopies et à 1984 pour voir tout ce que les pratiques actuelles ont de dangereux. On peut même percevoir un changement anthropologique possible dans le rapport avec le visage.
La reconnaissance faciale attribue au visage, non plus une valeur de personnalité, l’expression même de la singularité d’une personne humaine, mais une fonction de dénonciation : le visage ne vaut plus pour lui-même, comme singularité prise avec son épaisseur et son secret, mais comme simple signe en lien avec des bases de données de toutes sortes, qui permettent de prendre des décisions concernant la personne visée, à son insu.
Dans ce contexte, le visage devient l’identifiant unique par excellence, plus encore que la carte d’identité : il est infalsifiable. Lors de l’expérience du carnaval de Nice, la ville se vantait même d’avoir pu identifier un cobaye dont la photo de référence datait de trente ans auparavant. Le visage comme mouchard, le visage qui trahit à travers les âges, merveilleux progrès.

On peut s’opposer à un prélèvement d’ADN. Mais comment s’opposer aux photos de soi ? Facebook applique un logiciel de reconnaissance faciale aux photos postées par ses utilisateurs. Si un « ami » n’est pas reconnu, le site invite même les utilisateurs à identifier leurs proches. Même en n’ayant jamais eu de compte Facebook, vous figurez peut-être dans cette immense base de données, et Facebook sait mettre votre nom sur votre visage, et peut vous reconnaître parmi toutes les nouvelles photos postées par vos amis…
Malgré vous, votre visage a un sens pour les caméras qui vous filment. Les pseudo-sciences du 19e siècle prétendaient lire des traits psychologiques dans les traits du visage. Aujourd’hui, chaque visage dans la rue ouvre potentiellement l’accès à un nom, une adresse, un casier judiciaire, des relations professionnelles, amicales, amoureuses, des opinions exprimées sur les réseaux sociaux, des habitudes de consommation, des engagements divers, et qui sait quoi d’autre encore.

Quand les inconnus qui vous croisent dans la rue peuvent accéder à des données sur vous par le simple fait que l’image de votre visage a été captée par des Google Glass, on amène la puissance coercitive du réseau jusque dans la rue. Sur le réseau, il est possible de prendre plusieurs identités. Mais nos prises de position politiques, notre réseau amical, notre réseau professionnel, notre CV, etc., se retrouvent, dans la rue, associés à un élément unique, visible, et facilement accessible à tous. Les créateurs des Google Glass ont fini par interdire cette possibilité, pour ne pas tuer leur création dans l’œuf. Si cette technique devenait courante, qui peut assurer que nous n’assisterons pas à l’avènement d’une époque qui supprimera totalement l’anonymat dans l’espace public ?

Une société de la défaite

Une anthropologue britannique, Sally A. Applin, a récemment publié un article très intéressant sur les dégâts sociaux causés, et surtout révélés, par la reconnaissance faciale (à lire ici, en anglais). Elle part de la question posée par un dirigeant d’entreprise américain sur Twitter : « Vivons-nous vraiment dans une société aussi dangereuse, pour avoir à ce point besoin de la reconnaissance faciale ? », et la précise : la reconnaissance faciale, pour quoi faire ?
Elle évoque bien sûr les intérêts industriels, et la facilité politique consistant à remplacer le personnel humain par des machines. Mais elle va plus loin : derrière le succès politique et médiatique de la technique à visée sécuritaire, elle voit la peur de l’autre. Le regard remplace la parole, et la distance remplace la rencontre. Même les agents de surveillance ne regardent plus les gens, mais des écrans. Ce qui devrait être un média est devenu une vitre isolante. C’est une logique de traitement des symptômes qui ne s’adresse jamais aux causes.

Elle remarque aussi que la « démocratisation » des caméras, maintenant que chacun porte sur soi un smartphone, a sans doute aussi contribué à leur banalisation, en faisant de chacun le surveillant potentiel de l’autre. C’était d’ailleurs l’idée principale de l’application « Reporty », retoquée à Nice par la CNIL au printemps 2018 : la mairie voulait lancer une application pour smartphone afin que les habitants signalent par vidéo les incivilités dont ils seraient témoins. Sally A. Applin souligne par ailleurs que l’accumulation de millions d’heures de vidéosurveillance que personne n’a le temps de regarder explique peut-être en partie l’enthousiasme des décideurs politiques pour la reconnaissance faciale automatisée : le fantasme de la surveillance totale est matériellement hors d’atteinte, sauf si l’humanité s’y consacre à temps plein, ou si elle délègue le travail à des machines (biaisées).

Est-ce vraiment le monde que nous voulons ? Cette société sans contact, cette société qui a peur de la parole et de l’engagement physique des uns avec les autres est une société déprimée, qui ne s’aime pas. Il est permis d’en vouloir une autre. Elle commence par interdire la reconnaissance faciale.