L’Union européenne (UE) a décidé d’agir pour mieux réglementer ChatGPT. Le Comité européen de la protection des données a annoncé la création d’une task force, ou groupe de travail, portant sur la technologie d’OpenAI. Il s’agit d’une première étape importante vers une politique commune de définition de règles de protection de la vie privée dans le domaine de l’intelligence artificielle (IA).

Création d’un groupe de travail par le Comité européen de la protection des données

Depuis son lancement fin 2022, ChatGPT révolutionne le secteur de la tech grâce à sa capacité à générer des textes de tous types à partir d’une simple requête. Son succès fulgurant a logiquement suscité l’intérêt des régulateurs, notamment eu Europe. Il y a quelques jours, l’Italie décidait de bloquer l’accès à l’agent conversationnel, jugeant qu’il ne respectait pas la législation européenne sur la protection des données personnelles. La CNIL italienne a notamment notamment regretté l’absence d’information aux utilisateurs sur les données collectées par OpenAI, ainsi que le manque de mécanisme pour empêcher les utilisateurs de moins de 13 ans d’accéder au service.

Très rapidement, l’Allemagne a affirmé qu’une mesure similaire pourrait être prise sur son territoire. En France, la CNIL a reçu deux plaintes ciblant ChatGPT, tandis que l’Espagne a lancé une enquête préliminaire sur d’éventuelles violations des données par l’IA. Le pays a également appelé le Comité européen de la protection des données à s’exprimer sur le sujet, dans le but de mettre en place une politique commune au sein de l’Union.

C’est désormais chose faite. Ce jeudi 13 avril, le Comité, qui supervise les règles de protection des données dans l’Union européenne, a tenu une réunion avec des experts politiques qui ont échangé à propos de ChatGPT, rapporte Reuters. Lors de celle-ci, il a été décidé de « mettre en place une task force spécialisée afin de favoriser la coopération et d’échanger des informations sur les éventuelles mesures d’exécution prises par les autorités chargées de la protection des données ».

Plusieurs pays veulent encadrer l’IA

Les États membres ne cherchent pas à punir ou à établir des règles qui affecteront OpenAI, mais plutôt à créer des politiques générales qui « sont transparentes ». Cela va dans le sens des propos de Jean-Noël Barrot, Ministre délégué chargé de la transition numérique et des télécommunications. Selon lui, il ne faut pas interdire ChatGPT mais plutôt l’encadrer « pour qu’elle soit conforme aux principes auxquels on est attachés ».

En amont, l’Union européenne développe l’AI Act, une législation commune dont l’objectif est d’instaurer un cadre légal à l’utilisation de l’intelligence artificielle. L’UE n’est pas la seule entité à scruter l’émergence des systèmes d’IA avancés. Le Canada a également ouvert une enquête portant sur de possibles enfreintes de la loi sur la protection des données.

L’administration Biden a, pour sa part, annoncé la sollicitation de l’avis du public sur des mesures potentielles de responsabilisation de l’IA, alors que des questions se posent quant à son impact sur la sécurité nationale et l’éducation.