Initialement, OpenAI travaillait sur une intelligence artificielle qui avait pour mission de traduire des textes de manière très efficace et de fournir des réponses adaptées. Rapidement, les chercheurs se sont aperçus qu’ils avaient créé une machine à propagande, capable de fabriquer des fake news de toutes pièces. OpenAI vient de publier une version de son modèle GPT-2 et un rapport détaillant les conclusions à tirer d’une telle intelligence artificielle.

Malgré les risques, OpenAI décide de publier son modèle

En février dernier, OpenAI estimait qu’il était préférable de ne pas rendre public un tel modèle. Les experts en cybersécurité étaient à l’époque nombreux à soutenir que c’était une sage décision et qu’il s’agissait d’une précaution nécessaire pour éviter un déferlement de fausses nouvelles sur Internet. Pourtant, il semblerait que le laboratoire de San Francisco ait tout de même décidé de publier cette intelligence artificielle, en partie.

La moitié du modèle vient d’être publiée par les équipes d’OpenAI. Entre février dernier et aujourd’hui, l’entreprise à but non lucratif a consulté plusieurs établissements de recherche spécialisés dans la cybersécurité, sélectionnés pour étudier l’ensemble des implications du modèle. Dans le rapport récemment publié, nous découvrons qu’au fil du temps, OpenAI et ses partenaires estiment que le modèle mérite d’être reproduit à l’avenir.

Des experts identifient les menaces pour les contrôler

Les différents experts ayant étudié l’intelligence artificielle auraient aidé OpenAI à mieux comprendre et anticiper de potentielles utilisations malveillantes de GPT-2. Certaines menaces ont pu être analysées par des chercheurs de l’Université Cornell. Ces derniers ont par exemple observé que les lecteurs pensaient que les fake news publiées par GPT-2 étaient aussi crédibles que des articles publiés par le New York Times. Pas très rassurant…

Pour Peter Eckersley, directeur de la recherche au Partenariat sur l’IA : « le développement de GPT-2 a été une expérience très utile. Malgré tout, nous avons constaté que de nombreux éléments doivent être pris en compte pour décider quand et comment publier en intégralité, un modèle qui risque d’avoir des conséquences non intentionnelles ou des utilisations malveillantes ». Quoi qu’il en soit, ce modèle soulève de nombreuses questions.