À l’occasion de l’édition 2023 du DEF CON, la convention hacker la plus connue au monde, Washington a invité les pirates présents à s’introduire dans les modèles d’intelligence artificielle (IA) générative les plus perfectionnés. Entre le 10 et le 13 août 2023, ce sont des milliers de personnes qui ont tenté de trouver les moindres failles de ces systèmes.

Un test grandeur nature pour défier les modèles les plus performants

Parmi les modèles d’IA testés par les participants, ceux des géants OpenAI, Google, et Meta, mais aussi ceux de start-up toutes aussi prometteuses : Anthropic, Stability, Cohere, et Hugging Face. La Maison-Blanche s’est portée garante de ce test grandeur nature, autorisant les pirates éthiques à infiltrer les outils de ses pépites technologiques afin d’en découvrir leurs vulnérabilités.

Chaque participant s’est vu attribuer un modèle au hasard et a reçu une liste de vingtaine de défis à relever. Biais algorithmiques et discriminatoires, failles de sécurité, récupération d’informations sensibles ou personnelles, etc. certains pirates informatiques se sont surpassés. C’est le cas d’Avijit Ghosh qui a essayé de faire en sorte que son chatbot choisisse un candidat pour un poste en fonction de critères non éthiques.

En réalisant son expérience, le professeur spécialisé dans l’éthique de l’IA a poussé l’outil à bout pour qu’il puisse réaliser la tâche qu’il souhaitait mettre en place. De la même manière, un des participants a réussi à récupérer un numéro de carte de crédit. Enfin, un dernier hackeur a réussi à manipuler l’IA pour obtenir des instructions pour espionner des gens. Le modèle l’a guidé pas à pas dans sa démarche.

La Maison-Blanche et les géants de la tech s’engagent à mieux sécuriser l’IA

Si de tels biais et failles peuvent surprendre, ils sont monnaie courante dans le monde de l’intelligence artificielle. Washington le sait, comme elle le précise dans son communiqué présentant l’évènement : « Cet exercice indépendant fournira des informations cruciales aux chercheurs et au public concernant les impacts de ces modèles, et permettra aux entreprises et développeurs en IA de prendre des mesures pour corriger les problèmes identifiés ».

À la fin du mois de juillet, plusieurs grands groupes technologiques américains avaient convenu d’une série d’engagements autour de l’IA avec la Maison-Blanche. Ces mesures, visant notamment à auditer régulièrement les outils proposés par ces entreprises, doivent permettre de garantir la sécurité des utilisateurs, et des données exploitées pour leur conception. L’Administration Biden confirme cette vision des choses puisqu’elle assure que « le test de modèles d’IA de manière indépendante du gouvernement ou des entreprises qui les ont développés constitue un élément important de leur évaluation efficace »