Alors que depuis quelque temps, YouTube suscite la polémique pour avoir laissé des vidéos conspirationnistes concernant les vaccins ou encore de fusillades aux U.S.A se propager. La plateforme peine à se défendre. Comme si ce n’était pas suffisant, un nouveau rapport de Bloomberg vient l’accabler. Ce dernier démontre que le géant américain laisserait volontairement ce genre de contenu se propager, car il serait populaire.

Il y’a un an, Susan Wojcicki, directrice générale de YouTube, présentait un outil qui devait aider à limiter les vidéos conspirationnistes. Elle affirmait alors que YouTube devait être vu comme étant « une bibliothèque » et qu’il y’avait toujours eu « des controverses si vous regardez les bibliothèques ». Depuis cette déclaration litigieuse, la propagation de fake news a continué, ce qui semblerait confirmer que YouTube n’y apporte pas plus d’importance.

De plus, il semblerait que YouTube aime les controverses, puisque selon Bloomberg, ses algorithmes contribueraient même à la propagation des contenus conspirationnistes dans certains cas. Ce n’est pas tout, malgré la grogne de nombreux employés de Google (sa société mère) et YouTube, qui auraient proposé des solutions concrètes pour mettre fin à la propagation des fake news sur la plateforme de vidéos, les dirigeants de la plateforme n’auraient rien fait.

En effet, on apprend que des suggestions comme signaler les vidéos qui étaient à la limite de franchir les règles sur le discours haineux, cesser de les recommander aux téléspectateurs, ou encore suivre leur popularité via un tableur auraient toutes eu la même réponse « ne faites pas de vagues ».

Depuis des années, YouTube fait tout pour améliorer constamment l’engagement sur sa plateforme, et selon des informations provenant d’une vingtaine de personnes ayant récemment quitté YouTube, les dirigeants ne peuvent ou ne veulent écouter les suggestions de leurs employés de peur de perdre de l’engagement.

Selon une personne qui travaillait avec Woljcicki, cette dernière aurait déclaré : « mon travail est de diriger l’entreprise, pas de m’occuper de ça ». Un porte-parole de YouTube a contesté ces rumeurs autour de la directrice et de YouTube. Le média aurait passé ces deux dernières années à essayer de trouver une solution pour ses problèmes de contenu et recommanderait désormais des vidéos via une évaluation de la responsabilité, qui prend en compte les résultats d’enquêtes de satisfaction sur ces dernières.

De manière générale, son système de recommandation aurait été retravaillé pour prévenir la diffusion de fake news. Il en serait de même pour son IA, qui traquerait les contenus de désinformation avec plus d’efficacité. Le porte-parole de YouTube a également déclaré que les politiques du média ont été mises à jour un grand nombre de fois. Or, il est vrai que YouTube a modifié bon nombre de ses règles concernant les contenus pouvant être démonétisés et ce qui est explicitement interdit. Très probablement pour mettre des bâtons dans les roues des conspirationnistes. En plus de cela, 10 000 employés de chez Google travailleraient sur les problématiques de contenu illicite.

Alors, YouTube reste t’elle passive face au conspirationnisme, ou non ? La réponse plus que probable du média dans les prochains jours (pour peu que les critiques soient suffisamment intenses à son encontre) devrait nous aider à en savoir plus. Notons quand même qu’il y a quelques mois, la plateforme de vidéos avait sorti une fonctionnalité pour vous alerter en cas de fake news.

Réponse officielle de YouTube France

Voici ce qu’a déclaré un porte-parole de YouTube France au sujet de cette affaire :

« Nous avons eu pour objectif principal au cours des deux dernières années de nous attaquer à des défis extrêmement complexes relatifs aux contenus sur notre plateforme, en tenant compte des commentaires et des préoccupations des utilisateurs, des créateurs, des annonceurs, des experts et des employés. Nous avons pris un certain nombre de mesures importantes, comme notamment la mise à jour de notre système de recommandations pour empêcher la propagation de fausses informations nuisibles; l’amélioration de la diffusion d’informations en provenance de médias sur YouTube; le fait d’atteindre le nombre de 10 000 personnes travaillant sur les problématiques de retrait de contenu chez Google; l’investissement dans l’apprentissage automatique afin de pouvoir trouver et supprimer encore plus rapidement les contenus non autorisés ainsi que la révision et la mise à jour de nos Règles de la communauté – nous avons réalisé plus de de 30 mises à jour en 2018. Et ce n’est pas fini, être responsable reste notre priorité numéro un. »