En l’absence d’encadrement au niveau mondial, les géants de l’intelligence artificielle (IA) s’organisent. Les Chinois, parmi lesquels Ant Group, Baidu et Tencent, se sont associés à des Américains dont OpenAI, Microsoft et Nvidia. Ensemble, ils ont créé deux normes sur l’intelligence artificielle générative et les grands modèles de langage (LLM). L’annonce a été réalisée mardi 16 avril lors d’un événement parallèle de la Conférence des Nations Unies, à Genève, organisé par l’Académie mondiale des technologies numériques (WDTA).

Une alliance inédite…

L’objectif semble être la sécurité des systèmes d’IA générative, selon le communiqué. Ils ont publié ce qu’ils nomment la « norme de test et de validation de la sécurité des applications d’intelligence artificielle générative », ainsi que la « méthode de test de la sécurité des grands modèles de langage ».

Ils espèrent en faire des références mondiales, selon la WTDA. Cette dernière, organisatrice de l’événement, a été lancée il y a un an dans le cadre des Nations unies, pour « accélérer l’établissement de normes et de standards dans le domaine numérique ».

Le texte concernant l’IA générative a été rédigé par des chercheurs de plusieurs de ces sociétés comme Nvidia, puis validé par les autres, à l’instar d’Amazon, Ant Group, ou encore Google. Il propose un cadre pour tester la sécurité des systèmes.

La norme sur les LLM explicite plusieurs méthodologies devant permettre de tester efficacement la résistance aux attaques informatiques. Nvidia, Meta et Microsoft se sont chargés de sa rédaction. Les plus grandes entreprises du secteur sont impliquées, ce qui signifie qu’il s’agit des premières règles concernant directement les services les plus populaires tels que ChatGPT d’OpenAI ou Ernie Bot de Baidu.

Mais cette collaboration pourrait étonner. En plus d’être des concurrents, ces géants sont respectivement soit américains, soit chinois. Deux puissances entre lesquelles les tensions s’accroissent, sur fond de guerre technologique.

…qui illustre le besoin d’une collaboration internationale sur l’IA

Le fait qu’ils travaillent ensemble malgré cela souligne le besoin de collaboration internationale et d’harmonisation à l’échelle mondiale pour la création des futures IA. L’intelligence artificielle générative se développe extrêmement rapidement et infiltre peu à peu tous les pores de la société. Les internautes comme les entreprises en utilisent de plus en plus.

Cette diffusion entraîne logiquement une augmentation des risques et des craintes. Voilà pourquoi les leaders du secteur eux-mêmes souhaitent l’établissement de normes. En 2023, Sam Altman, PDG d’OpenAI, a appelé à une régulation du secteur de l’IA outre-Atlantique. Pour le PDG de Google, l’IA générative devrait être réglementée comme les armes nucléaires.

Des encadrements commencent bien à voir le jour peu à peu. En juillet 2023, la Chine a publié des règles à respecter pour les créateurs d’IA. L’Union européenne va se doter de l’AI Act, considéré comme l’encadrement le plus dur à ce jour. Dès 2021, l’UNESCO a adopté une « recommandation sur l’éthique de l’IA », tandis que le G7 a créé un code de bonne conduite. La plupart de ces initiatives internationales demeurent toutefois non contraignantes.

Ces nouvelles normes soulignent ainsi le besoin de collaboration internationale et d’harmonisation à l’échelle mondiale pour la création des futures IA. À l’avenir, ces règles pourraient servir de référence pour les professionnels de l’industrie et les autorités de réglementation.