Adopté au Parlement européen le 13 mars, l’AI Act fera l’objet d’un vote solennel ce 22 avril. Il deviendra ainsi le premier texte de régulation de l’intelligence artificielle du monde à apporter un cadre commun à la gestion des risques du secteur.

« Les organisations doivent définir sans délai leur tactique réglementaire et mettre en œuvre des modèles opérationnels de gestion de l’IA », déclare dans un communiqué Nathalie Beslay, cofondatrice et directrice générale de Naaia, une entreprise française spécialisée dans la gestion de l’IA.

C’est pourquoi quelques jours avant le vote crucial, Naaia qui propose une solution de pilotage centralisé de la conformité et de la gestion des risques des systèmes d’IA (SIA) a dévoilé six nouvelles fonctionnalités. « Elles visent à apporter une réponse opérationnelle encore améliorée avec des plans d’actions optimisés et un pilotage plus fin, demandant ainsi un effort minimal pour les équipes », explique dans le communiqué Côme Sauzay, cofondateur et directeur des opérations de Naaia.

La mise à jour a été lancée hier et se base sur la version finale et officielle de l’AI Act. « En intégrant d’ores et déjà la version finale de l’AI Act, Naaia répond à ce besoin d’aller “vite et bien” rapporté à la viralité et à la désirabilité de l’IA pour les organisations », affirme Nathalie Beslay.

Dans le détail, les clients de Naaia bénéficieront de l’intégration du texte européen, ainsi que d’une gestion facilitée. Cette dernière prendra la forme d’une répartition ventilée des actions par phases du cycle de vie des SIA et d’un pilotage des responsabilités au niveau groupe, ainsi que d’un renforcement du module de plan d’actions, Naaia Core. Celui-ci permet dorénavant l’intégration des templates, la mutualisation des actions socles entre tous les SIA et de faire du gap analysis.

Une manière de répondre à l’ambition de Naaia de « devenir la solution de référence européenne pour la conformité des entreprises du monde entier aux réglementations en matière d’intelligence artificielle ». Ainsi qu’à celle du gouvernement de faire de la France le leader européen de l’IA.

L’AI Act a notamment pour but de prévenir de l’émergence de biais discriminants dans les résultats des algorithmes et intègre des principes de protection de la vie privée. Il établit des niveaux de contrôles d’applications de l’IA par risque, qui vont d’un niveau minimal jusqu’à inacceptable, par exemple en cas analyse d’émotions des salariés sur leur lieu de travail ou de scoring social.