Les applications de Facebook sont des professionnelles de la collecte de données personnelles. Grâce à ces dernières, le groupe peut proposer un ciblage publicitaire basé sur une multitude de critères afin de permettre aux annonceurs de toucher un type d’utilisateur bien précis, et donc rentabiliser leurs campagnes marketing. Elles permettent aussi d’afficher des recommandations auprès des utilisateurs en fonction de leur âge, leur sexe, leurs centres d’intérêt ou encore leurs convictions.

Malheureusement, nous n’avons pas beaucoup d’informations sur les algorithmes mis en place par Facebook pour afficher les contenus. C’est pourquoi l’équipe d'AlgorithmWatch s’est lancée dans des recherches visant à surveiller et comprendre l’algorithme d’Instagram. Mauvaise nouvelle, ces derniers expliquent avoir été contraints d’abandonner leur projet à la suite de menaces juridiques de la part de Facebook.

L’algorithme d’Instagram garde tous ses secrets

En mars 2020, AlgorithmWatch a lancé une extension pour navigateur permettant aux utilisateurs de collecter des données à partir de leur flux Instagram. Avec cet outil, il était ainsi possible d’avoir un aperçu de la façon dont sont hiérarchisées les photos et vidéos affichées sur le réseau social. Les premiers résultats de ce projet ont ainsi permis de déceler qu’Instagram affichait de façon plus récurrente des images montrant la peau nue ou des visages que des captures d’écrans de texte par exemple. Durant une année, Facebook a décidé de ne pas prendre de mesure à l’encontre de cette initiative visant son réseau social, souhaitant conquérir le monde des vidéos courtes.

La situation a cependant changé en mai 2021. Les chercheurs ont signalé que Facebook avait demandé à rencontrer les responsables du projet, tout en les accusant d’avoir violé les conditions d’utilisation de la plateforme. En plus de cela, le groupe de Mark Zuckerberg a ajouté que le projet violait le RGPD en collectant des données sans consentement des utilisateurs. Face à ces accusations, AlgorithmWatch se défend en déclarant : « Nous n'avons collecté que des données liées au contenu que Facebook a affiché aux volontaires qui ont installé le module complémentaire. En d'autres termes, les utilisateurs du plug-in n'accédaient qu'à leur propre flux et le partageaient avec nous à des fins de recherche ». Par crainte de poursuites judiciaires, le projet a été abandonné.

Un représentant de Facebook a réagi à la situation en confirmant qu’une réunion avait bien eu lieu, mais qu’aucune menace n’avait été prononcée à l’encontre du projet. Il affirme même que le groupe souhaitait aider les chercheurs à trouver des moyens permettant de préserver la vie privée afin de leur permettre de poursuivre le projet. « Leurs pratiques nous préoccupaient, c'est pourquoi nous les avons contactés à plusieurs reprises afin qu'ils se mettent en conformité avec nos conditions et poursuivent leurs recherches, comme nous le faisons régulièrement avec d'autres groupes de recherche lorsque nous identifions des préoccupations similaires », explique le représentant.

Malgré différents mécanismes mis en place par Facebook afin d’offrir l’opportunité aux chercheurs de collecter des données, AlgorithWatch explique que la nature oppositionnelle de leurs recherches rend les données intrinsèquement indignes de confiance. Le collectif explique ainsi : « Les chercheurs ne peuvent pas se fier aux données fournies par Facebook, car on ne peut pas faire confiance à l'entreprise. Il n'y a aucune raison de croire que Facebook fournirait des données utilisables si les chercheurs devaient remplacer leurs données collectées de manière indépendante par celles de l'entreprise ».