Les intelligences artificielles génératives sont encore bien loin des dystopies imaginées par la Science-Fiction, mais inquiètent tout de même le grand public. Le Bureau européen des unions de consommateurs (BEUC) a demandé, le 20 juin, à l’Union européenne d’ouvrir une enquête de « toute urgence » sur les risques des IA comme ChatGPT.

La loi européenne sur les IA est « cruciale »

« L’IA générative telle que ChatGPT a ouvert toutes sortes de possibilités pour les consommateurs, mais il existe de sérieuses inquiétudes quant à la façon dont ces systèmes peuvent tromper, manipuler et nuire aux gens », scande Ursula Pachl, directrice générale adjointe du BEUC dans un communiqué. Elle martèle sa volonté d’ouvrir une enquête « maintenant » et de « ne pas attendre les bras croisés » que des dommages touchent les consommateurs.

Le BEUC réunit plusieurs groupes de consommateurs dans 13 pays européens. Cette association intervient essentiellement dans des moments critiques pour influencer les régulateurs sur l’ouverture d’enquêtes. En 2012, elle était l’une des premières à avoir porté plainte contre Google pour abus de position dominante avec son moteur de recherche. Plus récemment, le BEUC avait accusé TikTok de ne pas protéger les enfants contre la publicité déguisée et les contenus inappropriés.

Aujourd’hui, le communiqué du groupe d’association a été publié au même moment que l’un de ses membres, Forbrukerrådet en Norvège. Le document de 75 pages (pdf), intitulé Ghost in the Machine : Addressing the consumer harms of generative IA (un fantôme dans la machine : les effets néfastes de l’IA générative sur les consommateurs), décrit les dommages que l’intelligence artificielle générative pourrait infliger aux consommateurs. L’association évoque la concentration de la puissance des Big Tech, la création et la prolifération de fausses photographies et images créées par les IA (aussi appelé deepfake), les biais dans les données de formation, les risques pour la vie privée, le remplacement des emplois par l’automatisation et les conséquences environnementales. Le rapport reproche également aux grandes entreprises comme OpenAI de ne pas laisser les experts examiner les données utilisées par les IA et le fonctionnement des algorithmes.

Ce rapport et l’appel du BEUC font suite à l’approbation par le Parlement européen de la loi sur l’IA. Cette législation vise à définir et à classer les différentes formes d’IA selon leurs risques afin qu’elles puissent être encadrées en conséquence. Le texte doit être examiné par la Commission et le Conseil européen dans les prochains mois. L’Union européenne espère obtenir un accord avant la fin de l’année pour une entrée en application d’ici 2026. Ursula Pachl affirme dans le communiqué « Il est crucial que l’UE rende cette loi aussi étanche que possible pour protéger les consommateurs. Tous les systèmes d’IA, y compris l’IA générative, doivent être examinés, et les autorités publiques doivent réaffirmer leur contrôle. »