D’après une enquête de BuzzFeed, YouTube aurait de grandes difficultés à trier les vidéos destinées aux enfants du fait d’un manque de règles concrètes pour les modérateurs, mais aussi à cause d’une IA peu entraînée.

La fin de l’année 2017 de YouTube a été marquée par quelques déboires avec les marques et les utilisateurs de la plateforme. En effet, à la fin du mois de novembre, des annonceurs ont décidé de retirer leurs publicités de la plateforme après la découverte de commentaires à caractères pédophiles sous certaines vidéos. À présent, même si Google offre des algorithmes et une armée de modérateurs, YouTube a toujours des difficultés à masquer les vidéos inadaptées à un jeune public.

D’après BuzzFeed qui a échangé avec des collaborateurs, le dysfonctionnement résiderait dans les règles données par la société pour noter les contenus. Ces notes permettent ensuite d’aider l’intelligence artificielle à distinguer ce qui est adapté et ce qui ne l’est pas. Pour leurs notations, les modérateurs doivent d’abord évaluer la qualité de la production vidéo, et non pas son message. Cela signifie qu’une vidéo avec un contenu dérangeant ou violent peut très bien remonter jusque sur YouTube Kids tout simplement parce qu’elle est jolie.

Par la suite, la firme de Mountain View a modifié ces critères pour demander aux modérateurs si telle vidéo est adaptée à une audience de 9-12 ans non accompagnée. Il suffisait de préciser si la vidéo était « OK » ou « NOT OK » si la vidéo comprenait des contenus sexuellement explicites, de la violence, des éléments de langage crus, l’utilisation de drogues, ou des actions qui encouragent un mauvais comportement, comme des canulars. Les personnes interrogées par BuzzFeed ont alors donné quelques exemples de vidéos NOT OK comme le clip de la chanson Bad Blood de Taylor Swift. En revanche, des vidéos contenant de ‘légères’ violences animales sont considérées comme OK.

YouTube, comme d’autres plateformes, va encore devoir travailler dur pour protéger ses jeunes utilisateurs de contenus qui ne sont pas adaptés. De plus, le recours à des modérateurs est plus qu’important étant donné que certains contenus peuvent être relativement suggestifs et donc impossibles à filtrer par une IA. 2018 sera indéniablement l’année de la modération sur les plateformes sociales.