Depuis la révélation de l’existence de Clearview AI par le New York Times, la société de reconnaissance faciale utilisée par 600 organismes américains chargés de faire appliquer la loi multiplie les déconvenues. Cette fois c’est l’Union américaine pour les libertés civiles (ACLU) qui accuse Clearview de largement exagérer son efficacité et le nombre de ses soutiens.

Clearview s’est fait connaitre auprès du grand public en janvier 2020. L’entreprise, créé par un Australien, Hoan Ton-That, revendique une base de données de 3 milliards de photos publiques grattées sur tous les réseaux sociaux et autres sites web. Cette base de données alimente une IA de reconnaissance faciale pour la rendre capable d’identifier très rapidement les suspects de délits ou crime capté par une caméra de vidéosurveillance.

Le fait de récupérer des photos sur le web pour ensuite les faire correspondre a des images de vidéosurveillance soulève de nombreuses interrogations et résistances. La question du respect de la vie privée est centrale dans les critiques adressées à l’entreprise. Les géants du numérique, pourtant pas toujours au point question vie privée, n’ont pas apprécié que les photos de leurs utilisateurs soient exploitées ainsi et l’ont fait savoir à Clearview.

Quelques petits arrangements avec la vérité pour vendre

BuzzFeed News rapporte d’autres éléments plus compromettants pour l’entreprise : sa propension à vouloir en faire trop d’un point de vue marketing. Clearview se vante par exemple auprès de ses clients d’avoir aidé la police de New York (NYPD) à arrêter le responsable d’une bagarre à Brooklyn et un poseur de fausses bombes dans une station de métro. Une assistance que nie fermement le NYPD.

Dans l’État du New Jersey, la technologie de reconnaissance faciale a été placée sous moratoire par le procureur local, mécontent d’apparaître dans une vidéo promotionnelle de l’entreprise sans son accord. La polémique avec l’ACLU est le dernier épisode en date.

Clearview a affirmé être précise à 100% pour identifier des visages et éviter de faux positifs. Ce résultat a été obtenu, selon l’entreprise, en soumettant sa technologie à un test dont la méthodologie serait très précise. Ce test a été créé en 2018 par l’ACLU pour une IA d’Amazon, Rekognition, « Nous avons apprécié les efforts de l’ACLU pour mettre en évidence le potentiel de biais démographiques dans l’IA, c’est pourquoi nous avons appliqué leur test et leur méthodologie à notre propre technologie » a expliqué Hoan Ton-That.

Un hommage non réciproque. Selon l’un des avocats de l’ACLU, relayé par Buzzfeed, le résultat de l’étude de Clearview est « absurde à bien des égards et démontre une fois de plus que Clearview ne comprend tout simplement pas les méfaits de sa technologie entre les mains des forces de l’ordre ».

La méthodologie du test n’aurait pas été respectée

L’ACLU reproche à Clearview de mentir en affirmant avoir appliqué la même méthodologie. L’organisation avait soumis à Rekognition, en juillet 2018, des photos de membre du Congrès et 25 000 photos publiques de criminels arrêtés. Le test a démontré l’existence de dizaines de faux positifs, la plupart concernant les élus de couleur, une problématique bien connue des IA de reconnaissance faciale.

L’erreur de Clearview aurait été de comparer les photos les élus à leur base de données de trois milliards d’images. Problème, les élus sont dans la banque d’image et identifié par le logiciel, mais impossible de déterminer si un faux positif est possible si la photo n’est pas connue par l’IA.

Autre faille pointée par l’ACLU, la qualité des images. Celles-ci glanées sur internet sont souvent plus nettes comme une photo de profil par exemple, en situation réel l’IA peut-elle réellement à 100% reconnaitre un visage d’une photo de mauvaise qualité tirée d’une vidéo surveillance ?

Liz O’Sullivan, directrice technologique du Surveillance Technology Oversight Project, a rapporté à Buzzfeed que le panel de 834 élus américains n’était pas suffisant pour affirmer que Clearview est précis pour « tous les groupes démographiques ».

Du côté de l’entreprise de reconnaissance faciale, le test est tout à fait valable du fait justement de la richesse de la base de données auquel l’IA a été confrontée, « Le test Clearview a utilisé les mêmes photos que l’ACLU, mais avec une base de données 100 000 fois plus grande » explique Hoan Ton-That, « Avec ce niveau de difficulté plus élevé, Clearview a obtenu un score de 100% en suivant la norme ACLU » conclut-il.

Sur le rapport présentant les résultats, il est précisé que l’étude a été « conduite de façon indépendante » par un ancien juge de la Cour d’appel de New York, un universitaire et entrepreneur spécialisé en IA et un analyste urbain, ancien membre d’un groupe de réflexion conservateur. Une mention qui ne semble pas avoir convaincu l’ACLU. Il se pourrait que les autorités qui utilisent Clearview demandent à l’avenir une nouvelle étude, plus complète.