Quelques mois après les attaques de Christchurch diffusées en direct sur Facebook, la plateforme sociale reste obnubilée par l’idée de rendre impossible ce type d’agissement une seconde fois. Pour cela, Yann LeCun, chercheur français en intelligence artificielle, considéré comme l’un des inventeurs du deep learning, estime que l’utilisation d’un logiciel est indispensable à cet effet.

Il reste encore du chemin à parcourir…

Yann LeCun avait déclaré ceci peu après les attentats de Christchurch. Toutefois, il semblerait que ce problème soit encore loin d’être résolu, d’après le récent récipiendaire du prix Turing. Les systèmes actuels rencontrent de nombreux problèmes face aux live présentant de la violence. L’audio est souvent ce qui trouble le programme automatisé. Une vidéo de fusillade, ou d’exécutions sont accompagnées de cris, d’armes à feu, et autres bruits parasites. Pour M. LeCun, il est nécessaire que les prochaines IA formées pour reconnaître ces vidéos prennent en compte à la fois l’image et le son, en plus d’informations sur l’auteur du post et les derniers contenus qu’il a postés.

Jusqu’à présent, il y avait vraisemblablement trop peu de vidéos violentes pour former une IA fiable. « Heureusement, nous n’avons pas beaucoup d’exemples de personnes qui tirent sur d’autres personnes » dit Yann LeCun. Bien sûr, il existe de nombreux films montrant des scènes de violences, toutefois l’IA ne serait pas en capacité de faire la distinction entre un film et la vie réelle, elle se retrouverait donc à bloquer aussi bien le contenu d’un film autorisé, qu’une vidéo non autorisée.

En attendant de réussir à développer un système automatisé fiable, Jérôme Pesenti, vice-président de l’AI Facebook, a déclaré que l’objectif premier de l’entreprise était de déployer une armada de modérateurs humains, en plus du système automatisé, afin de supprimer immédiatement tout contenu jugé non conforme aux règles du réseau social. La détection automatique semble faire des progrès au fil des jours. À présent, Facebook est en mesure de repérer et bloquer 99% des contenus liés à Al-Qaida.