L’American Civil Liberties Union (ACLU), une association de défense des droits de l’Homme met en garde contre le logiciel de reconnaissance faciale d’Amazon. Par le biais d’un test, elle a prouvé que son logiciel Rekognition, utilisé par les autorités américaines, était biaisé.

L’ACLU a payé 12,33 dollars afin d’utiliser elle-même Rekognition. Puis, elle a rentré 25 000 photos de criminels et a demandé au logiciel de les comparer avec des clichés des 535 membres du congrès. Et surprise ! 28 personnes ont été reconnues comme des criminels. Plus inquiétant encore, le logiciel discriminerait certaines catégories de la population. Ainsi, 39% des soi-disant criminels sont des Afro-Américains ou des Latino-Américains, alors qu’ils ne représentent que 20% du congrès. 

Pour rappel, le logiciel Rekognition a été lancé fin 2016 dans AWS, l’offre cloud d’Amazon. Il permet d’identifier, de suivre et d’analyser jusqu’à 100 personnes en temps réel. Le logiciel a par exemple était utilisé par Sky News pour identifier les invités du Mariage royal du prince Harry et de la princesse Meghan. Mais si ce logiciel intéresse autant les associations, c’est parce qu’Amazon l’a mis à disposition du gouvernement. Actuellement, Rekognition est testé par la police d’Orlando. Depuis le début de nombreuses ONG alertent sur les risques de violation des libertés civiles que pourrait entraîner cette technologie. Et en toute vraisemblance, leurs inquiétudes n’étaient pas totalement injustifiées.

Amazon, de son côté, a assuré que l’ACLU n’a pas respecté les recommandations d’utilisation faites aux autorités. Nina Lindsey, une porte-parole d’Amazon a précisé que cette technologie ne devait pas être utilisée comme un outil destiné à prendre des décisions autonomes, mais pour aider les services de police. Amazon conseille également de ne prendre en compte que les résultats ayant un score de similarité de plus de 95%, contre 80% pour le test réalisé par l’association.

Source.