Afin de rendre ses modèles d’intelligence artificielle (IA) plus robustes et sûrs, OpenAI veut établir un réseau d’experts afin de composer sa « red team ». Une annonce qui intervient alors que de plus en plus de gouvernements accélèrent pour réglementer la technologie.

Un effort large et sur le long terme

Concept exploité dans plusieurs domaines tels que la cybersécurité et le militaire, une red team consiste à créer un groupe devant jouer le rôle de la menace pour identifier les points faibles de ses équipements. Dans le cas de l’intelligence artificielle générative, il s’agit de trouver les moyens de faire dire des choses inappropriées, non voulues ou interdites au modèle, afin de savoir comment l’en empêcher par la suite.

OpenAI a déjà eu recours à cette technique pour GPT-4, son modèle de langage le plus récent, mais veut désormais la démocratiser à ses autres produits. « L’OpenAI Red Teaming Network est une communauté d’experts de confiance et expérimentés qui peut contribuer à informer notre évaluation des risques et nos efforts d’atténuation plus largement, plutôt que des engagements ponctuels et des processus de sélection avant les déploiements majeurs de modèles », écrit l’entreprise dans un billet de blog.

Elle fait ainsi appel à « des experts individuels, des instituts de recherche et des organisations de la société civile » pour monter son réseau. Ses membres seront sollicités en fonction de leur expertise pour aider la red team à différents stades du cycle de développement des modèles, mais ils ne seront pas tous impliqués dans chaque nouveau produit, précise OpenAI.

La réglementation de l’IA progresse dans le monde

À travers cette initiative, la société prouve qu’elle déploie d’importants moyens pour sécuriser ses modèles. Les IA génératives ont en effet tendance à halluciner, c’est-à-dire qu’elles peuvent générer du contenu totalement faux en le faisant passer pour factuel. Afin de mieux encadrer leur utilisation et de prévenir leurs risques, les législateurs du monde entier se penchent sur la réglementation de la technologie.

L’Union européenne a déjà bien avancé sur l’AI Act, qui forcera notamment les entreprises à tout mettre en œuvre pour que leurs modèles ne soient pas utilisés à des fins malveillantes. Le Royaume-Uni vient de définir des principes spécifiques pour guider les réglementations en matière d’IA, en se penchant sur la concurrence et la transparence. Dans quelques semaines, le pays accueillera d’ailleurs le tout premier sommet mondial sur la sécurité de l’intelligence artificielle.

De l’autre côté de l’Atlantique, les législateurs rencontrent fréquemment les PDG des entreprises spécialisées dans l’IA mais pour l’heure, aucun cadre légal n’a été mis en place.