Il y a quelques mois, n’importe qui pouvait demander à Grok de générer une photo dénudée d’une vraie personne. Un visage récupéré sur Instagram, quelques secondes de calcul et l’image sortait. Adultes, enfants, anonymes, personnalités. Le tollé a été massif. Giorgia Meloni a découvert de fausses photos d’elle-même et a qualifié ces deepfakes d’outil dangereux. L’UE a ouvert une enquête. Et dans la nuit de mercredi à jeudi, les négociateurs européens ont bouclé un accord.
Que propose le texte ?
La nouvelle règle va au-delà du simple déshabillage par IA. Elle met en avant les systèmes capables de générer des images, des vidéos ou des sons qui mettent en scène les parties intimes d’une personne identifiable ou la représentant dans des actes sexuels, le tout sans son accord. La fabrication de contenus pédopornographiques par IA tombe évidemment dans le même périmètre.
📩 L’actu digitale évolue vite. Restez à jour.
Recevez la newsletter quotidienne, gratuitement.
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Le texte ne vise pas uniquement les applications conçues pour ça. Les IA généralistes qui ne prennent pas de mesures suffisantes pour bloquer la production de ce type de contenus pourront aussi être bannies du marché européen. Michael McNamara, corapporteur du texte au Parlement estime que si un fournisseur d’IA laisse son système compromettre la dignité humaine sans réagir, l’Europe disposera des outils pour agir.
Le calendrier de l’AI Act se précise
Cet accord s’inscrit dans une révision de l’AI Act adoptée il y a deux ans.
- Les interdictions sur les deepfakes sexuels prendront effet le 2 décembre 2026.
- Tout système d’IA vendu dans l’UE devra intégrer des protections susceptibles d’empêcher la génération de ces contenus.
Les négociateurs ont aussi repoussé les obligations sur les IA à hauts risques, celles qui agissent dans la santé ou la sécurité. Les entreprises n’étaient pas prêtes pour le calendrier d’août 2026. Alors, nouvelles dates. Le 2 décembre 2027 pour les systèmes autonomes. Le 2 août 2028 pour ceux intégrés dans d’autres produits.
Un accord obtenu dans un climat tendu
Les négociations ont été marquées par les inquiétudes autour de Mythos, le dernier modèle d’Anthropic dont les capacités en matière de détection de failles de cybersécurité ont relancé le débat sur les risques posés par les systèmes les plus évolués.
Le texte doit encore être formellement adopté par le Parlement et le Conseil avant publication au Journal officiel.
Les victimes de deepfakes sexuels en France, en Italie et ailleurs n’ont pas attendu décembre 2026 pour subir les conséquences de ces outils. Toutefois, le fait que l’UE s’attaque aussi aux IA généralistes qui ferment les yeux sur ces dérives représente un vrai changement.