OpenAI, Meta, Google ou encore Microsoft ont accepté ce 23 avril d’intégrer de nouvelles mesures de sécurité pour protéger les enfants en ligne contre l’exploitation. Un fléau qui est désormais exacerbé par l’avènement de l’intelligence artificielle (IA).

Plusieurs engagements

En 2023, plus de 104 millions de dossiers d’abus de mineurs présumés ont été signalés aux États-Unis, dénonce Thorn, une organisation à but non lucratif qui crée des technologies pour lutter contre les abus sexuels commis sur les enfants, dans un communiqué. Le phénomène est empiré par les outils de génération d’images et les deepfakes, qui permettent à des auteurs malveillants de créer du contenu sexuellement explicite de mineurs.

Pour lutter contre cette tendance, Meta, Google, Microsoft, CivitAI, Stability AI, Amazon, OpenAI et plusieurs autres entreprises ont signé de nouvelles normes recommandées par Thorn et l’association All Tech is Human. Au moins cinq de ces sociétés ont déjà été impliquées dans la création et la diffusion de deepfakes de ce type.

L’un des principes établit le développement d’une technologie qui permettra aux entreprises de détecter si une image a été générée par l’IA. De nombreuses versions préliminaires de cette technologie se présentent sous la forme de filigranes, qui sont pour la plupart facilement amovibles. Meta et OpenAI se sont déjà engagés à en insérer à tout le contenu généré par leur modèle. Les entreprises assurent en outre que les images d’enfants à caractère sexuel ne seront plus utilisées dans l’entraînement des modèles.

« Chaque étape du processus de l’IA – du développement à la maintenance en passant par le déploiement – comporte son lot de possibilités de prévenir et d’atténuer les préjudices sexuels subis par les enfants », précise Thorne.

Des images d'enfants générées par l'IA.

Des exemples de la manière dont l’IA est utilisée pour modifier des images. Image : Thorn.

L’IA accentue un problème déjà bien ancré

Dans une enquête publiée début mars, NBC News a révélé que des deepfakes sexuellement explicites avec de vrais visages d’enfants figuraient parmi les premiers résultats de recherche pour des termes comme « faux nus » sur les moteurs de recherche, notamment Bing et Google.

Par ailleurs, Thorn pointe du doigt une autre problématique engendrée par la prolifération de contenu généré par l’IA. Outre-Atlantique, seuls 5 à 8 % des signalements au National Center for Missing and Exploited Children (Centre national pour les enfants disparus et exploités) concernant des images d’abus sexuels sur des enfants aboutissent à des arrestations. L’IA rend encore plus difficile leur identification par les forces de l’ordre.

Du chemin doit encore être parcouru pour lutter contre le problème en profondeur. Par exemple, les entreprises peinent à soumettre leurs systèmes à des tests de résistance pour détecter les contenus à caractère pédophile, car les tests eux-mêmes peuvent enfreindre la loi si de tels contenus sont générés.

« Nous sommes impatients de travailler en partenariat avec l’industrie, la société civile et les gouvernements pour faire avancer ces engagements […]. Le partage d’informations sur les meilleures pratiques émergentes sera essentiel, notamment grâce aux travaux menés par le nouvel Institut pour la sécurité de l’IA et ailleurs », proclame Microsoft dans un billet de blog.