Pour Google, cet examen détaillé sur sa plateforme vidéo était indispensable. YouTube a épluché manuellement plus d’un million de contenus pour s’assurer qu’ils ne fassent pas l’apologie du terrorisme et donc, décider de les supprimer ou non. Sur l’ensemble des vidéos inspectées, 90 000 ont violé la politique de YouTube en matière de terrorisme et ont donc été écartées de la plateforme.

Après le scandale qui a éclaboussé les réseaux sociaux suite à l’attentat de Christchurch en Nouvelle-Zélande, les médias font preuve d’une grande prudence. YouTube a donc découvert que 9% des vidéos vérifiées comprenaient du contenu illicite. C’est énorme, mais surtout étrange que YouTube n’ait pas pu les supprimer plus tôt, avant même leur publication.

Soit l’intelligence artificielle en place pour détecter les scènes inadéquates fonctionne mal, soit YouTube a voulu faire un ménage de printemps dans les contenus publiés récemment. D’après le géant américain, 10 000 personnes travaillent à l’examen du contenu et s’assurent de la conformité de chacune des vidéos publiées. Il y a donc vraisemblablement eu un souci à ce niveau-là. Il semblerait que les centaines de millions de dollars dépensés à cet effet ne suffisent plus.

Tous les réseaux sociaux existants savent qu’ils doivent faire de ce problème, une réelle priorité. Pour pallier ce souci mondial, l’Australie a récemment fait voter une loi allant dans ce sens. En effet, cette nouvelle réglementation vise à sanctionner les médias sociaux qui ne supprimeraient pas les contenus violents et liés au terrorisme, « rapidement ». Intitulée « Sharing of Abhorrent Violent Material Bill » le passage de cette loi est fait pour éviter ce qu’il s’est passé en Nouvelle-Zélande au début du mois de mars dernier.