La Commission Nationale de l’Informatique et des Libertés (CNIL) a annoncé le 23 janvier 2023, la création d’un « service de l’intelligence artificielle » baptisé SIA. Consciente du développement de l’intelligence artificielle, l’autorité régulatrice n’a pas attendu la mise en application de l’Artificial Intelligence (AI) Act de l’Union européenne pour se pencher sur la problématique du traitement et de l’utilisation des données personnelles pour l’entraînement de modèles d’IA.

La CNIL crée la SIA pour mieux comprendre le secteur de l’IA

Au sein de ce nouveau service rattaché à la direction des technologies et de l’innovation, cinq personnes, juristes et ingénieurs spécialisés, travailleront ensemble pour mieux comprendre le développement et le fonctionnement des systèmes d’IA en interne. Ils essaieront également de faciliter leur compréhension pour les professionnels et les particuliers.

Comme l’indique un communiqué, le rôle de la SIA sera « de consolider l’expertise de la CNIL dans la connaissance et la prévention des risques pour la vie privée liés à la mise en œuvre de ces systèmes ». Depuis 2017, la CNIL travaille sur le sujet de l’intelligence artificielle. Cela s’est matérialisé par l’instruction de dossiers impliquant l’intelligence artificielle et donc, la maîtrise des risques associés à son utilisation. La SIA viendra compléter cette approche et consolider les connaissances autour de cette technologie.

Avec la promulgation prochaine de l’AI Act visant à réguler l’écosystème de l’intelligence artificielle, les compétences de la CNIL seront étoffées. Le gendarme de la protection des données juge utile d’être au point sur le sujet au moment de la mise en application de ce nouveau cadre législatif.

Des travaux autour des bases de données utilisées pour le machine learning

L’ensemble des réflexions lancées par ce service sur l’intelligence artificielle concernera principalement le machine learning. Cette branche de l’IA exploite de vastes bases de données pour le développement de modèles. Les développeurs entraînent leurs algorithmes avec ces données afin qu’ils puissent effectuer une ou plusieurs tâches.

Pour la CNIL, tout l’enjeu réside dans le fait de mieux comprendre comment ces données sont actuellement collectées et traitées pour le développement d’un modèle d’IA. Ne seront pas pris en compte, du moins pour l’instant, les algorithmes de machine learning qui restituent les données qu’ils ont apprises au cours de leur entraînement. Tous les systèmes de type robot conversationnel, ressemblant à ChatGPT par exemple, feront l’objet de travaux séparés.

Toutes ces réflexions aboutiront à « la création d’outils pour accompagner la constitution et l’utilisation de bases de données ». Des fiches pratiques seront élaborées « pour répondre aux situations les plus courantes rencontrées par les utilisateurs de base de données d’apprentissage ». Dans les prochains mois, la CNIL proposera ses recommandations pour encadrer la constitution de base de données personnelles dans le but d’entraîner une IA.