Le succès impressionnant de l’Intelligence artificielle (IA) conversationnelle d’OpenAI, ChatGPT, est le sujet incontournable dans le secteur de la Tech. Thierry Breton, le commissaire européen responsable au marché intérieur, appelé à s’exprimer sur le phénomène du moment a salué les grandes opportunités offertes par l’IA, mais aussi rappelé la nécessité de l’encadrer par un cadre réglementaire adéquat.


Cet épisode est disponible sur toutes les plateformes de podcast.

Oui au développement de l’IA et de ChatGPT, mais pas sans garde-fou

Selon une étude d’UBS, ChatGPT est « l’application grand public qui connaît la croissance la plus rapide de l’Histoire » avec 100 millions d’utilisateurs mensuels actifs en seulement deux mois. Brad Smith, président de Microsoft, partenaire majeur d’OpenAI, s’est enthousiasmé dans un billet de blog début février, pronostiquant que « L’IA pourrait bien représenter l’avancée technologique la plus importante de notre époque ».

Sollicité par Reuters sur cette réussite fulgurante, Thierry Breton est le premier responsable européen à s’exprimer sur le sujet. Ce dernier a estimé que « Comme l’a montré ChatGPT, les solutions d’IA peuvent offrir de grandes opportunités aux entreprises et aux citoyens, mais peuvent aussi présenter des risques. »

La réussite de ChatGPT, en effet, n’est pas allée sans son lot de polémiques. Le service a été accusé d’être utilisé par des cybercriminels, des écoles, comme Science Po, ont interdit son usage à leurs étudiants après plusieurs cas de triches, la diffusion de fausses informations entre aussi en jeu. La question du plagiat s’est aussi posée, le chatbot, comme d’autres IA génératives, utilisant de vastes bases de données pour produire ses réponses.

Pour Thierry Breton, ces risques prouvent que « nous avons besoin d’un cadre réglementaire solide pour garantir une IA digne de confiance basée sur des données de haute qualité ». Le commissaire européen plaide notamment pour de « La transparence » pour faire face au « risque de partialité et de diffusion de fausses informations ».

La prise de position du français correspond au projet de règlement européen sur l’IA, présenté par la Commission européenne en avril 2021. En cours de discussions avec le Conseil de l’UE et le Parlement, il vise à classer les applications IA sur quatre niveaux de risque, de minimal à inacceptable.

ChatGPT pourrait se retrouver classé au troisième stade, celui de risque élevé. Ce classement imposerait aux développeurs certaines mesures d’atténuation des risques, de traçabilité, d’évaluation de l’impact potentiel d’un service. Un autre texte, une directive cette fois, est également sur la table. Elle se concentre sur la question de la responsabilité, pour protéger les citoyens européens potentiellement lésés par une IA.

La future réglementation européenne, frein ou nécessité ?

Bien que l’objectif de l’Union européenne soit de devenir un pôle d’excellence mondial de l’IA, tout en construisant une IA « digne de confiance », certains acteurs du secteur affichent leur scepticisme. Selon une étude de décembre d’AppliedAI, une organisation professionnelle, relayée par Reuters, près de 51 % des membres de l’écosystème redoute un ralentissement du développement de l’IA sur le vieux continent avec l’entrée en application du texte. Près de 16 % le perçoivent au contraire comme une avancée bénéfique.

Dans son billet de blog, Brad Smith plaide pour un travail législatif sur l’IA. Selon lui « une réglementation efficace de l’IA devrait se concentrer sur les applications les plus à risque ». Toute la question est de savoir si les IA génératives types ChatGPT font partie, dans le regard du patron de Microsoft, des applications à risque. L’étude d’AppliedAI indique que 33 % des représentants de l’écosystème pensent que leurs services sont concernés par la catégorie « risque élevé » proposée par la Commission.