Souvent critiqué pour ses méthodes de modération jugées trop floues, YouTube joue la carte de la transparence. La plateforme de partage de vidéo a publié son premier rapport trimestriel concernant la modération de ses contenus. Entre octobre et décembre 2017, la firme, propriété de Google, affirme avoir supprimé plus de 8 millions de vidéos qui ne respectaient pas les conditions d’utilisation.

Parmi ces vidéos, 30% sont des contenus à caractère sexuel, viennent ensuite les spams qui représentent 27%, puis les vidéos haineuses et violentes, respectivement 15,6% et 13,5%. Les quelques 15% restants, rassemblent les vidéos d’actes dangereux, d’abus sur des enfants ou d’apologie du terrorisme (7,6%, 5,3% et 1,6%). D’après le document, l’Inde est le pays où le plus de vidéos ont été supprimées, suivie des États-Unis, du Brésil, de la Russie et de l’Allemagne. La France ne figure pas dans le top 10.

Des agences gouvernementales et ONG, qui forment un groupe de modérateurs humains « Individual Trusted Flagger Program », ont signalé 1,1 millions et les utilisateurs sont à l’origine de 400 000 signalements. Néanmoins, le rapport montre que la grande majorité (6,7 millions) de ces contenus problématiques a été détectée grâce à l’intelligence artificielle. Une automatisation qui a permis à près de 76% de ces vidéos d’être enlevées avant même d’avoir été visionnées.

Si l’IA et l’apprentissage automatique semblent avoir fonctionné, YouTube devrait cependant davantage miser sur l’humain dans sa lutte contre les contenus inappropriés. Susan Wojcicki, la PDG avait annoncé fin décembre que la plateforme comptait employer plusieurs milliers de modérateurs humains pour arriver à un total de 10 000 personnes d’ici la fin d’année. Une annonce qui avait fait suite à la polémique sur la présence de vidéos et commentaires inapropriés sur son service dédié aux enfants YouTube Kids et qui avait entraîné le boycotte de plusieurs annonceurs.