La reconnaissance faciale est une technologie qui s'est introduite dans nos vies sans trop faire de bruit. Présentée en grande pompe comme la solution d'identification sécurisée idéale en 2017 à la keynote d'Apple, elle est depuis devenue un usage commun et pratique. Mais accrochez-vous, ce n'était qu'un début. Vous pourrez bientôt faire vos courses en gardant le portefeuille dans la poche en payant grâce à la reconnaissance faciale.

De la même façon, il sera possible de rentrer dans un stade de foot, aller à un concert en s'évitant de longues queues de vérification de billet ou pour simplement ouvrir la porte de l'appartement, sans avoir à rechercher les clés qui se cachent toujours au fond du sac.

C’est le monde rêvé par les grandes entreprises de la tech qui promettent un monde plus sûr, simple et fluide. C’est un rêve partagé par les gouvernements qui y voient une opportunité pour renforcer la sécurité. C'est le rêve de la Smart City. Mais cette technologie qui est déjà devenue une habitude pour beaucoup d'entre nous pose des questions.

Sommes-nous condamnés à vivre dans un monde où l’anonymat a disparu ?

En France, les maires sont de plus en plus nombreux à installer des caméras dans les rues. Il y en aurait des millions sur tout le territoire aujourd’hui. Même si leur efficacité n'est pas avérée, certains rêvent d'aller plus loin et d'investir massivement dans des drones de surveillance.

Le Gouvernement voulait faire de la France le premier pays européen à utiliser la reconnaissance faciale pour accéder à ses services publics avec le projet Alicem. C'était il y a une éternité, c'était avant la pandémie de Coronavirus.

Depuis tout a changé et notre rapport à la reconnaissance faciale aussi. Vérifier le port du masque dans les transports et les rues passantes, prise de température à distance, remplacer les billets pour accéder aux événements sans contact... Les entreprises qui vendent cette technologie n'ont pas tardé à lui trouver de nouvelles vertus. En France, Cedric O, Ministre chargé du numérique estime : « [Elle] peut apporter un certain nombre de bénéfices à la fois dans l'ordre public mais également dans la gestion de maladies ». La pandémie banalise encore un peu plus la surveillance et permet aux entreprises du secteur de blanchir leur réputation en pivotant des marchés sécuritaires vers des marchés sanitaires.

Comment se poser les bonnes questions ?

Selon Martin Drago, juriste à la Quadrature du net, le débat reste en surface, au niveau des « biais algorithmiques » (c’est-à-dire de la fiabilité du système). C'est hors sujet estime-t-il : il ne s’agit pas tant de savoir si ces technologies sont ou non efficaces, mais d’interroger le bien-fondé de les diffuser partout dans la sphère publique et d'en faire la norme.

La vidéo surveillance existe depuis longtemps et n’a pas inquiété plus que ça, en tout cas pas autant que la reconnaissance faciale. La différence aujourd’hui c’est qu’on peut l’utiliser plus massivement grâce à l’intelligence artificielle. Ça veut dire que l’on autorise le croisement des données et c’est à ce moment que ça devient critique.

La reconnaissance faciale a deux fonctions : l’identification et l’authentification

Avant d’aller plus loin, essayons de comprendre comment tout cela fonctionne. La reconnaissance faciale est capable de reconnaitre des éléments très précis du visage. Ce qui le rend distinctif pour une machine, c’est par exemple la distance entre les yeux, le nez ou la bouche.

Ces mesures vont permettre de créer un mapping de points qui donnera à son tour un avatar abstrait et unique propre à chaque individu. Il permettra de comparer ce que voit la caméra aux photos disponibles dans une base de données pour identifier la personne.

C’est un outil qui peut-être être exploité avec des photos issus des fichiers officiels, comme le fichier TAJ (Antécédent judiciaire) en France par exemple, ou le fichier TESS (passeports et cartes nationales d’identité) qui regroupe toutes les photos d’identité des Français.

Ces programmes ne fournissent pas de vérité absolue mais un « pourcentage d’exactitude ». Plus le taux est élevé, plus on estime que l’identification d’une personne est avérée.

C'est comme ça qu'un homme s'est retrouvé incarcéré aux États-Unis alors qu'il était innocent. L'outil l'avait confondu avec le suspect alors qu'il avait un alibi. L'agent qui a obéi à l'ordre de la machine s'est défendu avec un argument que l'on risque d'entendre à nouveau : « l’ordinateur a dû se tromper ».

Mais ce n'est pas tout. Ces intelligences artificielles peuvent être entrainées à reconnaitre des visages mais elles pourraient également reconnaitre une démarche par exemple. Si vous savez que votre démarche permet de vous identifier et de vous suivre à la trace ou bien d'évaluer si vous avez un comportement déviant, c'est tout naturellement que vous ajusterez votre démarche. En fait, en se sachant suivi à la trace en permanence, l'individu change naturellement son comportement pour se conformer à la norme.

Panopquoi ?

C’est le principe du Panoptique, un modèle de prison imaginé par Jeremy Bentham en 1791. C’est une prison circulaire avec des cellules réparties autour d'un poste de surveillance.

Le panoptique est une tour placée au centre de la prison dans laquelle se trouve un surveillant, les cellules sont disposées en cercle autour d'elle. La lumière entre du côté du prisonnier, le surveillant peut ainsi vérifier si le prisonnier est bien dans la cellule avec son ombre. Il sait si le détenu est présent ou non, ce qu’il fait ou ne fait pas.  À l’inverse, le surveillant est invisible, le prisonnier ignore donc s’il est réellement surveillé ou non mais craindra de l'être.

L’essentiel, c’est qu'il se sente surveillé

Dans « Surveiller et punir », le philosophe Michel Foucault consacre tout un chapitre au panoptique. Il explique que face à l’ordre rigide, le pouvoir évolue pour développer des normes souples, poussant les individus à l’autodiscipline. Il esquissait déjà les grandes lignes d’une société de surveillance et de contrôle qui va être rendue réelle grâce à l’essor des technologies.

On revient à notre sujet puisque c'est précisément ce qu’il s’est passé avec la surveillance en ligne, en prenant conscience que son historique de recherche puisse être sauvegardé, l'internaute va modifier son comportement et rester coincé dans une bulle de filtre.

L’auteur d'anticipation Alain Damasio résume ainsi la situation : « on troque une partie de notre liberté au nom d’une vie plus fluide. La technologie ce n’est plus Big Brother, c’est Big Mother, il s’agit d’un pouvoir maternant, couvant, qui anticipe et répond à nos besoins ».

Il est vrai que la reconnaissance faciale peut fluidifier notre quotidien, par exemple pour gagner du temps à l’aéroport. Mais si on commence à banaliser cette technologie pour en faire une norme sans la questionner. Jusqu’où nous habituerons-nous à la surveillance ?

Olivier Tesquet, auteur des ouvrages « à la Trace » et le tout récent « État d'urgence technologique », confirme l'idée d'une technologie de surveillance qui a su s'imposer en employant la manière « douce ». Nous ne sommes pas dans une imposition totalitaire de la technologie : « Quand on parle de biométrie en général et de reconnaissance faciale en particulier, ou encore plus des réseaux sociaux ou des applications à la mode... On constate que tout est fait pour rendre la technologie désirable et nous inciter à participer à ce système ».

Olivier Tesquet fait un parallèle avec la France qui s'était insurgée à l'époque de l'apparition des premières cartes d'identité : « Quand on entend le colonel de Gendarmerie Nationale qui dit que la reconnaissance faciale équivaut à un contrôle d'identité permanent et général. Il faut comprendre que s'il avait dit ça dans la France de 1920, ça aurait été un scandale ! C'était inaudible pour qui que ce soit. Il faut se souvenir que la biométrie au siècle dernier était réservée aux populations qui étaient considérées comme des populations dangereuses, à savoir les pauvres qui étaient obligés de justifier de leur identité avec le livret ouvrier qui régulait leurs déplacements. Les nomades et les vagabonds qui devaient se promener en permanence avec un carnet anthropométrique (distance entre les yeux, etc), un type d'indications morphologiques qui trahissait déjà un certain racisme encapsulé dans le dispositif en lui-même. Et la dernière catégorie, c'était les criminels ».

C'était les trois catégories de populations historiquement surveillées en France mais avec la reconnaissance faciale, tout le monde y passe.

Un dispositif discriminant

Aux Etats-Unis, plusieurs villes majeures l’ont déjà interdite suite à des expérimentations qui ont démontré que la technologie était trop dangereuse. On dénombre plusieurs grandes villes : Oakland, San Francisco, Somerville, bientôt New York et Portland et un État majeur, berceau des nouvelles technologies : la Californie.

« Tous les individus ne sont pas traités de la même façon par la technologie et notamment les individus qui ont la peau noire ou les femmes, ils sont plus discriminés parce qu'ils sont moins bien reconnus par la technologie », explique Olivier Tesquet. C'est une réalité devenue très concrète depuis le coronavirus et les examens à distance. Une étudiante californienne en Droit en a fait l'amère expérience. L'outil ExamSoft, un logiciel anti triche qui surveille les étudiants à distance, s'est trompé. Le logiciel a estimé que l'étudiante n'était pas devant son écran et n'est pas parvenue à correctement l'identifier parce qu'elle est noire. Elle a été obligée de sur éclairer son visage avec une lumière violente qui lui a donné des maux de tête durant les examens, pour que l’algorithme de reconnaissance faciale d’ExamSoft reconnaisse son visage, sous peine d'être accusée à tort de triche.

Interdiction ou moratoire ?

Pour autant, malgré les risques d'atteinte aux libertés individuelles et d'amplification des biais discriminants, certaines voix s'élèvent en Europe et plus particulièrement en France pour défendre cette technologie. À condition de pouvoir la déployer dans un cadre strict. C'est la position défendue par le Forum économique mondial qui a produit plusieurs rapports sur le sujet avec l'idée d'alerter les représentants européens. « Le véritable enjeu qui se pose avec la reconnaissance faciale, c'est celui de la donnée. Cette technologie va produire des quantités faramineuses de données qui elles même vont vont nourrir les intelligences artificielles. Si l'Europe ne fait rien, si elle rejette tout simplement cette technologie, cela revient à se retirer de la course aux intelligences artificielles. C'est se résigner à se soumettre aux deux futures super puissances de l'IA, à savoir la Chine ou les États-Unis », nous confie une source interne au Forum de Davos.

Le député des Yvelines Didier Baichère s'est emparé du sujet et défend une reconnaissance faciale « à la française ». « Je ne crois pas à l’interdiction de la reconnaissance faciale ni au moratoire sur un sujet pas encore réellement défini ni discuté. La loi française pourra en revanche poser des lignes rouges. La France a devant elle des temps forts comme la Coupe du monde de rugby ou les Jeux olympiques. Tous les pays qui connaissent de grandes manifestations en profiteront pour mener des expérimentations. Nous devons tenir compte de ce calendrier, pendant lequel la France aura un rayonnement important et pourra affirmer son soutien à ses champions industriels. Une voix française existe en matière de reconnaissance faciale. Elle n’est pas basée sur des impressions ou des peurs mais bien sur des faits scientifiques, une méthodologie et une expérimentation contrôlée et transparente ». Le député a produit une note sur la question pour le parlement et défend une vision française de la reconnaissance faciale soumise à une expérimentation transparente et dont les résultats seraient publics. Mais comment encadrer une technologie qui s'est déjà installée dans nos vies ?

Résister à la reconnaissance faciale grâce à l'art

Alors que cette technologie, aussi imparfaite et dangereuse soit-elle, s'étend inexorablement dans nos vies, des artistes ont déjà imaginé des parades pour l'esquiver.

C'est le cas d'Adam Harvey, il développe des sortes d'Ad blocker de la vraie vie pour préserver sa vie privée. Il est rejoint par le russe Grigory Bakunov. Les deux artistes mettent à disposition sur le web des modèles de maquillage futuristes à appliquer sur les visages pour ne pas être reconnus par les caméras.

Ce projet a fait des émules, à Londres un collectif s’est crée et défile depuis dans les rues pour dénoncer l’ultra présence des caméras de reconnaissance faciale dans la capitale anglaise avec ce maquillage futuriste comme symbole de ralliement.

Et si le maquillage, ça n’est pas trop votre truc, il y a une autre solution : Ewa Nowak, une artiste polonaise a elle aussi bien anticipé l’évolution possible de notre société, elle a imaginé dès 2017 des bijoux à porter sur le visage d'un nouveau genre.

Son projet Incognito fait penser à premières vues à d’étranges lunettes. En réalité son armature est constituée de points clefs qui recouvrent le dessous des yeux et une partie du front pour empêcher toute tentative d'identification biométrique du visage. Sinon, une autre solution va s'imposer : prendre le visage d’un autre.