Une coalition d’entreprises spécialisées dans l’open source exhorte l’Union européenne (UE) à repenser l’AI Act pour qu’il soutienne davantage le développement de l’intelligence artificielle (IA) ouverte. Selon elles, la législation ne fait pas assez de distinction entre modèles ouverts et fermés, ce qui leur porte préjudice.

La législation doit différencier davantage les types de modèles, estiment les entreprises

En préparation depuis plusieurs années, la législation européenne sur l’intelligence artificielle doit établir une norme pour le monde entier, estiment les décideurs de l’UE. Introduisant des mesures phares à respecter pour les acteurs du secteur, elle est censée prévenir les risques posés par l’IA, alors que le secteur a connu un boom effréné depuis l’introduction de ChatGPT en novembre dernier.

Dans un document adressé aux législateurs européens, les principales entreprises du secteur de l’open source, c’est-à-dire GitHub, Hugging Face, Creative Commons, etc., demandent un assouplissement des conditions à respecter dans le cadre de l’AI Act. Elles estiment que certaines propositions de réglementation visant les modèles à haut risque, quelle que soit la taille du développeur, pourraient être préjudiciables et coûteuses pour les petits acteurs.

Selon elles, le texte doit encore être peaufiné afin de faire la distinction entre les différents modèles, qui semblent pour l’heure être tous soumis à un traitement similaire. Elles demandent une meilleure clarification des composants de l’IA afin que le texte soit mieux optimisé.

Elles expliquent, par exemple, que les tests en conditions réelles doivent être autorisés, afin de permettre une meilleure évaluation des modèles. Elles espèrent, en outre, que l’UE établira des exigences proportionnelles selon les différents types de systèmes. Le groupe insiste également sur le fait que le partage d’outils d’IA dans des bibliothèques à code source ouvert ne relève pas d’activités commerciales et ne devrait donc pas faire l’objet de mesures réglementaires.

OpenAI, éditeur de ChatGPT, a fait le choix du logiciel fermé avec son dernier modèle, GPT-4. Il y a quelques jours, Meta commercialisait son modèle de langage Llama 2 en tant que source ouverte. Cependant, la firme ne partage pas l’origine de ses données d’entraînement et limite l’utilisation gratuite du modèle.

Une préoccupation similaire concernant le Cyber Resilience Act

Les préoccupations de ces entreprises sont partagées par l’Union des entreprises du logiciel libre et du numérique ouvert (CNLL). Dans un communiqué partagé le 17 juillet dernier, elle alertait sur les dangers du Cyber Resilience Act pour le logiciel libre en Europe.

L’Union estime que le texte « aura des conséquences particulièrement lourdes pour les petites et moyennes entreprises (PME) évoluant dans le domaine du logiciel libre, et plus généralement sur la filière du logiciel libre ». Ses acteurs tiennent à rappeler que la filière du logiciel libre « contribue à l’économie de l’UE à hauteur de 65 à 95 milliards d’euros par an ».

« La loi sur l’IA promet de créer un précédent mondial en matière de réglementation de l’IA afin de faire face à ses risques tout en encourageant l’innovation. En soutenant l’approche de l’écosystème ouvert de l’IA en plein essor, la réglementation a une opportunité importante de faire avancer cet objectif », écrivent les entreprises à propos de l’AI Act.