« Nous continuerons d’encourager la collaboration et le dialogue ouvert entre les parties prenantes afin de créer un écosystème d’IA sûr » assure OpenAI dans un communiqué de presse. L’entreprise à l’origine de ChatGPT a indirectement répondu aux inquiétudes exprimées par les régulateurs ces dernières semaines sur divers sujets.

Vérifier l’âge des utilisateurs pour protéger les enfants

Lancé publiquement fin 2022, ChatGPT est rapidement devenu populaire. Ce succès a un prix : être scruté par les autorités régulatrices de divers pays. Le 31 mars, l’Italie fut le premier pays européen à reprocher à l’entreprise californienne le non-respect du Règlement général sur la protection des données (RGPD). Le temps d’avoir une réponse, les régulateurs italiens ont bloqué l’accès à l’intelligence artificielle (IA). La France, l’Allemagne et l’Irlande étant soumis au même règlement, leurs autorités régulatrices respectives ont échangé avec Rome.

Outre-atlantique, les autorités canadiennes ont ouvert une enquête pour des faits similaires. Aux États-Unis, la Federal Trade Commission (FTC), autorité de la concurrence américaine, a, quant à elle, déclaré avoir reçu une plainte sur la sécurité des IA d’OpenAI, notamment pour la sécurité des jeunes utilisateurs.

Préoccupation présente dans les reproches de l’autorité italienne, OpenAI a décidé d’y répondre. Dans un communiqué, l’entreprise affirme travailler sur une solution pour vérifier l’âge de ses utilisateurs. Elle précise qu’il faudra désormais avoir 18 ans ou plus pour converser avec l’IA. Les enfants de 13 ans ou plus pourront profiter de ChatGPT avec un accord parental.

Au-delà de cette modification, OpenAI déclare s’efforcer à limiter l’exposition de ses utilisateurs à des échanges inappropriés pour les jeunes et moins jeunes. C’est l’un des arguments de GPT-4, la nouvelle version de son grand modèle de langage à succès : il serait 82 % moins susceptibles de répondre à des demandes de contenu interdit (choquant, harceleur, pornographique…). L’entreprise martèle travailler dur pour éviter que son IA accepte, par exemple, de fournir des plans pour fabriquer une bombe. Dans son communiqué elle insiste que des demandes illégales sont susceptibles d’être signalé aux autorités, prenant le cas de la pédopornographie, « Lorsque des personnes tentent de télécharger du contenu pédopornographique dans nos outils d’imagerie, nous le bloquons et le signalons au National Center for Missing and Exploited Children (Centre national pour les enfants disparus et exploités) ».

Le consentement des utilisateurs

En Europe, OpenAI est surtout suspecté d’utiliser les données des utilisateurs à leur insu, notamment pour son entraînement. Dans un communiqué publié le 5 avril, IA : comment être en conformité avec le RGPD ?, la Commission nationale de l’informatique et des libertés (CNIL) rappelle qu’un citoyen européen doit donner son consentement de façon explicite pour que ses données soient utilisées à l’entraînement d’une IA. Problème, dans son communiqué l’entreprise californienne semble faire abstraction de cette obligation. Elle rappelle uniquement qu’elle n’utilise pas les données des utilisateurs pour « vendre ses services, faire de la publicité ou établir des profils de personnes ».

OpenAI appuie cette argumentation en affirmant supprimer « les informations personnelles de l’ensemble des données de formation lorsque cela est possible ». Les questions sur les personnes non publiques seraient rejetées. Elle souligne aussi que les personnes souhaitant supprimer leurs informations personnelles du système le peuvent. Sur ce dernier point, l’avocate et présidente de l’association Janus International, Zoé Villain, a justement déposé une plainte auprès de la CNIL lorsque OpenAI lui a refusé l’accès à ses propres données.

Les possibles dérives de GPT-4 ?

Au pays de l’Oncle Sam, un groupe spécialisé dans l’éthique de l’IA, Center for AI and Digital Policy (CAIDP), accuse GPT-4 d’OpenAI, plus performant que son aîné, d’être un risque pour la vie privée et la sécurité publique. Dans leur lettre, les spécialistes mentionnent une douzaine de dangers dans les réponses du modèle : écriture de codes malveillants, propagande hautement personnalisée, préférences injustes en matière de race et de sexe dans des domaines tels que le recrutement.

OpenIA argue avoir attendu plus de 6 mois avant de déployer GPT-4. Néanmoins, elle reconnaît ne pas pouvoir anticiper toutes les réponses de son agent conversationnel, « Malgré ces 6 mois, il peut parfois être nécessaire de prendre plus de temps pour améliorer la sécurité des systèmes d’IA ».

En rappelant son « Approche de la sécurité de l’IA », OpenAI tente de répondre aux préoccupations des uns et des autres. Pour montrer sa bonne foi, l’entreprise a réitéré être en faveur d’une régulation des IA. « Les décideurs politiques et les fournisseurs d’IA devront s’assurer que le développement et le déploiement de l’IA sont régis efficacement à l’échelle mondiale, afin que personne ne lésine pour aller de l’avant » assure-t-elle. Reste à voir comment OpenAI réagira sur la prochaine loi européenne nommée IA Act.