Ce lundi 3 septembre, dans un article de blog, Google a présenté plus en détail son outil basé sur l’IA permettant de détecter et signaler les contenus pédopornographiques en ligne.

Dans l’article, il est ainsi expliqué que l’utilisation de l’intelligence artificielle va permettre de faire « progresser de manière significative nos technologies existantes ». Côté fonctionnement, l’on apprend que l’entreprise utilise « des réseaux de neurones profonds pour le traitement des images, permettant d’aider les modérateurs à trier de nombreuses images en hiérarchisant le contenu CSAM le plus probable à examiner. » Pour rappel, le contenu CSAM correspond au child sexual abuse materials, qui se traduit par les contenus d’abus sexuels sur enfants. Cette technologie permet ainsi aux modérateurs de cibler le contenu qui n’a pas encore été classé comme CSAM.

Susie Hargreaves OBE, PDG d’Internet Watch Foundation a confié : « nous sommes particulièrement intéressés par le développement d’un outil d’intelligence artificielle qui pourrait aider nos experts humains à examiner le matériel à une échelle encore plus grande et à suivre le rythme des délinquants, en ciblant des images qui n’avaient pas encore été considérées comme du matériel illégal. En partageant cette nouvelle technologie, l’identification des images pourrait être accélérée, ce qui pourrait rendre Internet plus sûr ». Google explique que ces outils vont être mis à disposition des organisations et des ONG. L’entreprise ajoute également que « les gouvernements, les organismes d’application de la loi, les ONG et l’industrie ont tous un rôle essentiel à jouer pour protéger les enfants ».

Cette annonce fait notamment suite aux récents propos du ministre de l’Intérieur britannique Sajid Javid qui a mis en garde les géants de la Silicon Valley et leur a demandé des efforts afin de lutter la diffusion de ce type de contenu.