Les législateurs européens continuent de se pencher sur la réglementation de l’intelligence artificielle (IA). Ils réfléchissent désormais à introduire des mesures plus restrictives à l’encontre des grands modèles de langage.

Comme le Digital Services Act

L’Union européenne (UE) se veut pionnière dans l’encadrement de l’IA. Sa législation sur la technologie, récemment adoptée par le Parlement, doit servir comme norme au reste du monde, estiment ses décideurs. Baptisée AI Act, elle est en préparation depuis plusieurs années, mais l’émergence de l’IA générative a poussé l’UE à revoir ses plans.

Les fournisseurs des modèles d’IA générative seront par exemple tenus de respecter les obligations de transparence prévues par le règlement, en veillant à ce que les utilisateurs soient informés que le contenu a été généré par une machine. Ils vont aussi devoir appliquer des « garanties adéquates » en ce qui concerne le contenu généré par leurs systèmes, et fournir un résumé de tout matériel protégé par le droit d’auteur utilisé pour former leurs IA.

Le bloc souhaite également réglementer différemment les acteurs déjà bien établis détenant d’importantes parts de marché sans pour autant affaiblir les jeunes start-up qui s’immiscent dans le secteur. Des représentants de la Commission européenne, du Parlement européen et des pays de l’UE discutent d’une approche qui répondrait aux préoccupations soulevées par les grands modèles de langage à l’instar de GPT-4, rapporte Bloomberg.

Pour l’heure, ils sont arrivés à un accord préliminaire qui n’a pas encore fait l’objet d’un projet écrit. L’approche est similaire au Digital Services Act ; si la loi impose à toutes les plateformes de prendre des mesures pour protéger les données des utilisateurs et surveiller les activités illégales, les contrôles les plus stricts sont réservés aux mastodontes comme Google et Meta.

Un cadre pour les technologies à « haut risque »

Les négociateurs souhaitent finaliser l’AI Act d’ici à la fin de l’année, avec l’objectif d’un accord final le 25 octobre. Le texte va également introduire un régime plus sévère pour les applications d’IA à « haut risque », c’est-à-dire celles qui représentent des dangers prévisibles pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie ou l’État de droit.

Un certain nombre de questions clés restent néanmoins en suspens, notamment la manière exacte de réglementer l’IA générative, qui devrait justement tomber dans le cadre du « haut risque ». L’interdiction totale de la numérisation faciale en direct dans les foules est aussi un sujet de désaccord.