La fondation Mozilla a réalisé une vaste étude pour déterminer si les outils mis à disposition des utilisateurs par YouTube pour contrôler leurs recommandations fonctionnent. Les résultats ne laissent la place à aucun doute : ils sont, dans la plupart du temps, inefficaces.

Une étude menée sur sept mois

Les chercheurs ont analysé sept mois d’activité sur YouTube auprès de 22 722 volontaires. Leur objectif, évaluer les quatre manières dont les utilisateurs de la plateforme détenue par Google peuvent ajuster leurs recommandations : en cliquant sur « Je n’aime pas », « Pas intéressé », « Supprimer de l’historique » ou « Ne pas recommander cette chaîne ».

Pour recueillir les données nécessaires, ils ont demandé aux participants d’utiliser l’extension RegretsReporter de Mozilla. Celle-ci ajoute un bouton « Ne plus recommander » en haut de chaque vidéo YouTube. Le fait d’appuyer dessus déclenche automatiquement l’une des quatre réponses d’ajustement de l’algorithme, ce qui a rendu l’analyse des données plus simple pour les chercheurs, et leur découverte est peu reluisante pour le géant de la vidéo.

« Les gens estiment que l’utilisation des contrôles de l’utilisateur de YouTube ne modifie en rien leurs recommandations », écrivent-ils dans leur rapport. En effet, cliquer sur « Je n’aime pas », le moyen le plus visible de donner un avis négatif sur la plateforme, n’arrête que 12 % des mauvaises recommandations, tandis que l’option « Pas intéressé » n’est efficace qu’à 11 %.

Les outils qui fonctionnent le mieux sont ceux qui donnent un ordre à YouTube. Par exemple, « Supprimer de l’historique » réduit les recommandations indésirables de 29 %, alors que « Ne pas recommander cette chaîne » retire 43 % des mauvaises recommandations. Si ces deux fonctions sont les plus performantes, elles sont encore très loin d’être parfaites avec une efficacité qui se place en dessous des 50 %.

Des recommandations sur YouTube.

Il est probable que les recommandations d’un utilisateur contiennent du contenu qui ne l’intéresse pas. Photographie : NordWood Themes / Unsplash

L’algorithme de YouTube reste très opaque

« YouTube devrait respecter les commentaires que les utilisateurs partagent sur leur expérience, en les traitant comme des signaux significatifs sur la façon dont les gens veulent passer leur temps sur la plateforme », affirment les chercheurs. Ce n’est visiblement pas le cas : au cours des sept mois d’étude, ils ont établi qu’une vidéo rejetée a donné lieu, en moyenne, à environ 115 mauvaises recommandations, c’est-à-dire des vidéos qui ressemblaient étroitement à celles que les participants avaient déjà indiqué à YouTube qu’ils ne voulaient pas voir.

Pire encore, l’étude a déterminé que des contenus qui semblaient violer les politiques de YouTube étaient toujours activement recommandés aux utilisateurs, même après qu’ils aient envoyé des commentaires négatifs. Par exemple, certains d’entre eux ont remarqué que les vidéos issues d’une chaîne qu’ils ont demandé de mettre en sourdine peuvent toujours apparaître dans leurs suggestions.

Elena Hernandez, porte-parole de YouTube, affirme que certains de ces comportements sont intentionnels de la part de YouTube car la plateforme ne cherche pas à bloquer tout le contenu lié à un seul sujet, mais procède plutôt au cas par cas selon les vidéos. Elle a toutefois critiqué le rapport publié par Mozilla, affirmant qu’il ne tient pas compte de la façon dont les algorithmes de contrôle de YouTube sont conçus :

« Il est important de noter que nos contrôles ne filtrent pas des sujets ou des points de vue entiers, car cela pourrait avoir des effets négatifs pour les téléspectateurs, comme la création de chambres d’écho. Nous accueillons volontiers la recherche universitaire sur notre plateforme, c’est pourquoi nous avons récemment élargi l’accès à l’API de données par le biais de notre programme de recherche YouTube. Le rapport de Mozilla ne tient pas compte de la façon dont nos systèmes fonctionnent réellement, et il est donc difficile pour nous de glaner de nombreuses informations ».

Comme le note le MIT Technology Review, le fonctionnement de l’algorithme de YouTube est très fortement méconnu des personnes n’évoluant pas au sein du géant américain, il est donc logique que Mozilla n’ait pas toutes les connaissances à ce sujet, mais la fondation tente justement de comprendre pourquoi les actions des utilisateurs de la plateforme n’ont pas le résultat escompté. D’ailleurs, les réseaux sociaux comme Twitter, TikTok ou encore Instagram ont eux aussi introduit des outils similaires afin d’aider les utilisateurs à entraîner l’algorithme pour que celui-ci leur montre du contenu pertinent.

Cependant, les usagers se plaignent souvent que même lorsqu’ils signalent ne pas vouloir voir une chose en particulier, des recommandations de contenu similaire persistent. Selon Becca Ricks, chercheuse chez Mozilla, le problème est que la plupart des plateformes ne sont pas entièrement transparentes sur leur manière de faire, ce qui laisse les utilisateurs dans le flou.

Un impact réel sur les utilisateurs

Les résultats de l’étude sont d’autant plus inquiétants que plusieurs rapports ont par le passé démontré que la pratique de YouTube consistant à recommander des vidéos avec lesquelles l’utilisateur sera probablement d’accord, et à récompenser les contenus controversés, pouvait durcir les opinions des gens et les conduire à la radicalisation politique. Encore récemment, 80 organisations de fact-checking ont dénoncé les fausses informations qui grouillent sur YouTube, affirmant que la plateforme était devenue l’un des principaux moteurs de désinformation dans le monde.

L’étude suggère que YouTube privilégie le temps de visionnage par rapport à la satisfaction de l’utilisateur. Si la plateforme veut que les utilisateurs soient davantage aux commandes, elle devrait toutefois leur permettre de former l’algorithme de manière proactive en excluant des mots-clés et des types de contenu des vidéos recommandées, plutôt que des vidéos spécifiques. Bien sûr, la tâche est ardue pour YouTube, qui doit prendre en charge des milliards de vidéos issues de pays et de langues différents.

De manière générale, l’opacité des géants technologiques sur leurs algorithmes, bien qu’ils aient déployé davantage d’outils pour modérer le contenu, affecte les utilisateurs. Ils ne sont en effet pas en mesure de contrôler le contenu auquel ils sont exposés, et sont par conséquent confrontés à des vidéos parfois violentes ou traumatisantes contre leur gré.

« Notre principale recommandation est que YouTube doit permettre aux gens de façonner ce qu’ils voient. Les contrôles de l’utilisateur de YouTube doivent être faciles à comprendre et à utiliser. Les utilisateurs devraient recevoir des informations claires sur les mesures qu’ils peuvent prendre pour influencer leurs recommandations, et devraient être en mesure d’utiliser ces outils », conclut Mozilla.