Cet épisode est disponible sur SpotifyApple PodcastsDeezerGoogle PodcastsAcast.

Après 37 heures de négociations, encore des négociations. Un accord a été trouvé en trilogue le vendredi 8 décembre 2023 pour l’AI Act, le texte européen devant encadrer l’intelligence artificielle. Une première mondiale. Pourtant, son chemin de croix législatif n’est pas fini. Dès l’annonce de l’accord, les critiques se sont multipliées, venant de lobby comme de pays, à l’instar de la France. L’Hexagone plaide en effet pour une réglementation plus souple, afin de protéger son champion Mistral AI. Ainsi, des discussions techniques doivent encore avoir lieu durant ce mois de janvier pour finaliser le texte.

Le Parlement et le Conseil européen doivent pour leur part encore voter ce texte. Si tout est loin d’être terminé, au milieu du chaos, les premières mesures sont connues et les entreprises anticipent déjà leur mise en conformité. Pour faire un point sur ce texte historique, ses mesures comme son approche, Siècle Digital s’est entretenu avec Chadi Hantouche, Partner IA et data au cabinet de conseil Wavestone.

L’AI Act, « un texte indispensable »

Il n’est pas exagéré de dire que la grande majorité des acteurs concernés par l’AI Act s’est prononcée en faveur d’un encadrement de l’intelligence artificielle. « C’est un texte indispensable », confirme Chadi Hantouche. « Il va réguler l’une des technologies de rupture les plus importantes pour les années, peut-être les décennies, à venir », estime-t-il. Un texte qui va s’attaquer à un énorme marché aussi, représentant d’ores et déjà 327 milliards de dollars. Les points chauds lors des négociations ont été nombreux. L’un d’entre eux concerne l’approche adoptée. Sur ce point, la France et ses partenaires ont obtenu gain de cause, il est question d’approche par les risques : « C’est une approche avec une distinction entre les différents types de risques. En l’occurrence des risques dits inacceptables, puis ensuite les risques élevés, limités et faibles », explique le Partner IA de Wavestone.

L’approche est également dite à deux niveaux. Cela signifie qu’il y a « des exigences spécifiques pour tous les systèmes d’IA à vocation générale. Mais – et c’est là l’approche à deux niveaux – il y a des obligations supplémentaires pour les risques dits systémiques, définis par la puissance du modèle », détaille l’expert. Ce dernier point, celui du seuil de puissance pour les risques systémiques, pose problème à la France, qui souhaite le voir disparaître ou rehaussé. Autre reproche fait à ce texte : le manque de clarté. « Ce n’est pas un peu de flou, c’est pas mal de flou », se désole l’expert, avant de prendre un exemple, celui du bureau européen de l’IA. « Il va y avoir un AI office, un bureau central européen dont l’objectif est de faciliter l’application du règlement. Il ne sera composé que dans 1 an ». Problème, ce bureau doit fournir des guides pour se mettre en conformité. Utile pour les entreprises, qui ne disposent que de 2 ans pour le faire. Les négociations à venir permettront sans doute d’éclaircir certains de ces points.