Incroyable. L’application Ever, qui propose à ses utilisateurs « une sauvegarde privée gratuite et illimitée de tous les souvenirs de votre vie », a utilisé les milliards de photos de sa base de données pour développer un logiciel de reconnaissance faciale et le vendre. Comme indiqué dans un rapport de NBC News, la startup Ever avait lancé son application de stockage en 2013 et était devenue un fournisseur de technologie de reconnaissance faciale en 2017, après avoir déterminé que la plus-value de son application n’était pas à l’échelle des risques commerciaux qu’elle engendrait. Ever n’avait cependant pas pris soin d’avertir ses utilisateurs de ce nouvel usage de leurs photos.

La société a bafoué le respect des données personnelles dans une extrême discrétion

Pour agir dans la légalité, l’entreprise se reposait sur certains détails de sa gigantesque politique de confidentialité. Elle expliquait dans ce document que la reconnaissance faciale aidait à « organiser » les fichiers des utilisateurs, en permettant de regrouper les images d’une même personne. La seule trace que leurs données étaient utilisées pour la formation de cette même IA de reconnaissance faciale était contenue dans une seule ligne « Vos fichiers peuvent être utilisés pour améliorer et former nos produits et leurs technologies ».

Après avoir été contactée par NBC News en avril, l’entreprise avait mis à jour sa politique de confidentialité pour expliquer que ses produits comportaient « des offres de reconnaissance faciale d’entreprise ». Cependant, nombreux sont les experts qui affirment que l’entreprise a violé la vie privée des utilisateurs en ne les informant pas plus clairement et directement de la façon dont leurs données personnelles sont utilisées.

Plusieurs experts du droit dénoncent Ever

« Cela ressemble à une violation flagrante de la vie privée » selon Jacob Snow, avocat spécialisé dans la technologie et les libertés civiles et membre de l’union américaine pour ces mêmes libertés. Dans le même temps, Jason Schultz, professeur de droit à l’Université de New York, a déclaré « ils exploitent commercialement l’apparence des personnes sur les photos pour former un produit qui est vendu aux militaires et aux forces de l’ordre (…) L’idée que les utilisateurs ont donné leur consentement est risible ! ». Pourtant, The Verge souligne que l’entreprise n’a jamais vendu son produit à des organisations militaires. Si la déclaration semble véridique, l’entreprise semble tout à fait disposée à changer ses habitudes. Sur son site web, elle encourage les organismes publics « à utiliser la technologie d’Ever pour offrir à vos citoyens et aux forces de l’ordre le plus haut degré de protection contre le crime, la violence et l’injustice ».

L’entreprise n’est pourtant pas la seule à détourner des photos pour développer des IA de reconnaissance faciale

Pour défendre ses pratiques, Ever a souligné qu’elle ne montre jamais les données personnelles des consommateurs. Dans le même temps, certaines personnes ont rappelé comment les universitaires et des entreprises utilisaient également de gigantesques bases de données comme MegaFace et Faces in the Wild pour former des IA de reconnaissance faciale. Des bases de données qui contiennent des photos récupérées sur des sites Web publics, comme Flickr. Cependant, cette comparaison n’est que partiellement valable. Les personnes exposant leurs photos sur Flickr, bien qu’elles ne se doutent pas que leurs images sont utilisées pour entraîner des intelligences artificielles, donnent généralement leur accord pour que ces dernières soient exploitées à diverses fins. De plus, elles savent qu’en postant leurs photos sur Flickr, elles ne sont plus privées. Enfin, il convient de noter qu’en faisant appel à des bases de données externes pour former leurs IA, les entreprises ne vont pas jusqu’à utiliser les photos de leurs clients pour améliorer leurs technologies commerciales, à la différence d’Ever.

Sur son site web, Ever déclare avoir l’un des « ensembles de données balisées les plus importants, les plus diversifiés, et les plus exclusifs du monde », avec plus de 13 milliards d’images et de vidéos. Il est expliqué que son logiciel de reconnaissance faciale est utilisé pour la surveillance et le contrôle, ainsi que l’authentification numérique, et qu’il peut faire plus que reconnaître les individus. Il serait aussi capable de distinguer les émotions, les ethnies et l’âge en fonction des images.

Le PDG estime avoir suffisamment averti les utilisateurs de son application

NBC News a questionné Doug Aley, le PDG de Ever, pour savoir s’il estimait qu’il avait fait ce qu’il fallait pour informer les utilisateurs de son application concernant l’utilisation de leurs données. Ce à quoi il a répondu « Je pense que notre politique de confidentialité et nos conditions de service sont très claires (…) elles n’utilisent pas de jargon juridique ».

Les entreprises semblent exploiter de plus en plus les données personnelles de leurs clients à leur insu pour remplir divers objectifs. La démonstration la plus flagrante à ce jour reste l’affaire Cambridge Analytica, qui cause encore des soucis à Facebook. Cette affaire, qui ne semble pas avoir fait cessé ses pratiques douteuses, a notamment poussé des sénateurs a demandé que les dirigeants du réseau social soient considérés comme personnellement responsables lors de ses prochaines erreurs. Quoi qu’il en soit, bien que le RGPD permet désormais aux consommateurs européens d’être protégés dans une certaine mesure de l’exploitation masquée de leurs données personnelles, il semble qu’il va devenir promordial de demander aux entreprises du monde entier de fournir un résumé des clauses essentielles de leurs politiques de confidentialité. Dans le cas contraire, il est probable que les pratiques comme celle de Ever deviendront de plus en plus courantes.