Avec l’avènement de l’intelligence artificielle générative, les autorités jugent de plus en plus important le fait d’accompagner l’implantation de cette technologie au sein de la société. La Commission nationale de l’informatique et des libertés (CNIL) vient de présenter, le 16 mai 2023, son plan d’action « pour un déploiement de systèmes d’IA respectueux de la vie privée des individus ».

La CNIL propose un plan d’action reposant sur quatre objectifs

En 2017, la CNIL publiait un premier rapport sur les enjeux éthiques de l’IA. L’arrivée sur le devant de la scène des intelligences artificielles génératives, avec en tête de prou ChatGPT d’OpenAI semble avoir rebattu les cartes. L’institution y a vu la nécessiter de mettre en place des mesures plus concrètes, en lien avec leur usage quotidien et leur évolution.

De ce fait, « considérant que la protection des données personnelles est un enjeu majeur pour la conception et l’utilisation de ces outils », la CNIL souhaite encadrer le développement de cette technologie à travers un plan d’action. Comme l’indique son communiqué, celui-ci devrait s’articuler en quatre volets bien précis :

  • Appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes. Faire en sorte que le processus de traitement des données soit transparent, et que le grand public puisse comprendre facilement comment ces outils utilisent les données afin de générer leur contenu.
  • Permettre et encadrer le développement d’IA respectueuses des données personnelles. Un guide devrait être publié autour de la réutilisation des données et plusieurs publications sont attendues dès la fin de l’été 2023 sous la forme de conclusions issues de concertations avec plusieurs acteurs du secteur autour de thématiques liées à la création d’IA génératives.
  • Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe. Après avoir lancé son bac à sable dans le but d’accompagner des projets innovants autour de la santé en 2021, puis de l’éducation en 2022, l’édition 2023 qui devrait prochainement être lancée, se concentrera sur l’usage de l’IA dans le secteur public.
  • Auditer et contrôler les systèmes d’IA et protéger les personnes. Les actions de contrôles de la CNIL se porteront sur le respect de la position sur l’usage de la vidéosurveillance augmentée, l’usage de l’IA pour lutter contre la fraude, mais aussi sur l’ensemble des plaintes déposées.

Les régulateurs à l’assaut des intelligences artificielles génératives

ChatGPT, DALL-E 2, Bard, Midjouney, etc. Les IA génératives suscitent l’intérêt du grand public, mais aussi des entreprises et administrations pour des applications professionnelles. Dans un souci de transparence, l’Union européenne a dû ajouter des mesures en lien avec cette technologique dans son futur IA Act. Le texte est actuellement examiné au sein du Parlement européen, et devrait être voté dès le mois de juin.

Ces dispositions concernaient notamment l’utilisation de contenu non libre de droits. Les entreprises seront désormais obligées de préciser si les documents qu’ils ont utilisés sont soumis au droit d’auteur, et devront de ce fait, financer les plateformes ou les personnes à qui elles appartiennent.

Dans un autre registre, en France, le député Rennaissance Éric Bothorel, avait saisi la CNIL afin de porter plainte contre ChatGPT. Il affirmait que l’outil d’OpenAI délivrait de fausses informations et accusait l’IA générative de possibles infractions au règlement générale sur la protection des données personnelles (RGPD). En effet, l’article 5, alinéa d du RGPD dispose que « les données personnelles sont exactes et, si nécessaire, tenues à jour en prenant toutes les mesures raisonnables pour », ce que ne ferait pas OpenAI. Cette plainte fait ainsi partie de l’une de celles qui seront sans doute examinées par la CNIL dans le cadre de son plan d’action.