Selon une enquête réalisée par l’ONG The Markup, les labels indiquant les informations douteuses ou erronées sur Facebook ne sont pas tout à fait efficaces, et reflètent les difficultés du réseau social à contrôler les fake news qui s’y propagent.

Comment l’enquête a-t-elle été réalisée ?

Pour parvenir à ces résultats, les journalistes ont utilisé l’outil Citizen Browser, qui suit un panel d’utilisateurs de Facebook à travers les États-Unis pour inspecter comment fonctionne la plateforme. Le feed de plus de 2 200 Américains a ainsi été analysé sur la période décembre 2020 – janvier 2021, alors que Donald Trump contestait largement les résultats de l’élection présidentielle sans preuve formelle de ce qu’il avançait.

Parmi les personnes ayant participé à l’étude, plus de 330 ont eu des publications labellisées sur Facebook. Au total, 682 posts ont été étiquetés car ils étaient faux, manquaient de contexte ou liés à un sujet controversé. The Markup précise que dans 588 cas, il s’agissait d’un panneau qui semblait être ajouté automatiquement à tous les posts relatifs aux élections, le média a donc décidé de ne pas les compter dans leur rapport.

Des labels prêtant à confusion

Ainsi, The Markup note que l’attitude de Facebook à l’encontre de Donald Trump a été particulièrement policée : « Le premier diffuseur de posts qui ont reçu un label ? Trump. Ses posts, cependant, n’ont jamais été qualifiés de « faux » ou de « trompeurs », même lorsqu’ils contenaient des mensonges incendiaires. Lorsque Trump a partagé un post de la mi-décembre affirmant qu’il était « statistiquement impossible » que Joe Biden ait gagné, par exemple, Facebook a simplement noté que les États-Unis « ont des lois, des procédures et des institutions établies pour assurer l’intégrité de nos élections” », explique l’ONG. Pourtant, la plateforme avait assuré tout mettre en place pour lutter contre la désinformation si l’ancien président venait à contester les résultats.

The Markup a par ailleurs remarqué que les mots utilisés par Facebook dans les étiquettes n’étaient pas toujours appropriés : le terme « faux », par exemple, ne l’était presque que pour des théories complotistes farfelues, alors que des publications diffusant des informations erronées étaient simplement dotées de la mention « contexte manquant », pouvant induire les utilisateurs en erreur. Cette dernière a été observée 38 fois pendant l’étude.

Des résultats révélateurs de la position floue de Facebook en matière de désinformation

En outre, les enquêteurs ont noté que 9,3% des électeurs de Trump comptaient des posts étiquetés dans leur feed, tandis que ce chiffre descendait à 2,4% pour ceux qui ont voté pour Biden. De même, les personnes âgées avaient plus tendance à recevoir de fausses informations… démontrant les failles de l’algorithme de Facebook. « Nous ne commentons pas les données que nous ne pouvons pas valider, mais nous examinons les exemples partagés », a déclaré Katie Derkits, porte-parole de Facebook contactée par The Markup.

Ces résultats sont révélateurs de la non prise de position du réseau social par rapport aux contenus problématiques, notamment lorsqu’ils émanent de la classe politique. Car si Mark Zuckerberg a pris la parole lui-même pour annoncer la suspension (qui pourrait bientôt être levée) du compte de Donald Trump suite aux événements du Capitole, Facebook a souvent été critiqué pour sa gestion de la désinformation, à tel point que cela a créé des conflits en interne.