C’est le célèbre MIT Technology Review qui nous présente cette intelligence artificielle. Alimenté par des milliards de mots, son algorithme lui permet de créer des articles bluffants sur tous les sujets. Pire, elle est capable de répondre aux questions. Les commentaires d’érudits sur ses productions pourraient donc avoir du mal à faire tomber le masque si elle était utilisée à des fins malveillantes.

À la base, le projet était plein de bonnes intentions

L’équipe d’OpenAI ayant travaillé sur le projet à San Francisco a bien compris le danger, et c’est pourquoi elle travaille désormais avec prudence sur son projet. Initialement, l’idée était d’offrir un outil capable de traduire des textes et de fournir des réponses rapidement. Pas de créer une machine de propagande. L’IA avait même été utilisée pour produire des récits de science-fiction ayant eu « un succès surprenant » selon le MIT Technology Review. On envisageait également de l’utiliser pour améliorer les chatbots.

Les chercheurs dans l’inquiétude

Désormais, les chercheurs craignent qu’elle soit détournée et utilisée pour créer une véritable machine à fake news. Actuellement, ce risque est limité car bien que les textes produits par cette IA soient réalistes, le fond du texte ne tient pas la route avec un oeil averti. Un peu comme avec les fake news crée par des personnes malveillantes, somme toute. Mais les chercheurs prévoient qu’avec seulement une ou deux années d’expérience supplémentaire, identifier des mensonges de sa part pourrait s’avérer bien plus complexe.

La manière d’en faire une machine à fake news détaillée

Dans leur programme de recherche, les chercheurs ont bien pris soin de développer toutes les manières dont leur IA pourrait être utilisée pour propager des fake news sur internet ou les réseaux sociaux (notamment via des tweets). Le programme présente même comment l’IA pourrait cibler des groupes démographiques précis. Cela s’explique car OpenAI a aussi pour rôle, outre la recherche, de mettre en lumière les dangers inhérents à l’intelligence artificielle. Bien que ces détails pourraient aider à la combattre, on se demande si la création d’un document où on explique comment l’intelligence artificielle peut-être utilisée pour produire des fake news ne pourrait pas être contre-productif. Pour Richard Socher, expert en informatique chez Salesforce, il n’y a absolument rien à craindre. Car son utilisation à mauvais escient ne changerait rien selon lui. « Vous n’avez pas besoin de l’IA pour créer de fausses nouvelles. Les gens peuvent facilement le faire. »

L’IA ne cesse de progresser dans la compréhension du langage

Quoi qu’il en soit, la performance réalisée par l’IA d’OpenAI témoigne des progrès réalisés par cette technologie. Les intelligences artificielles ont de plus de facilités à maîtriser le langage, notamment parce que leurs algorithmes de machine learning peuvent désormais analyser de grandes quantités de textes pour progresser. Cela a permis de développer des technologies intéressantes, comme Miss Debater, l’IA qui débat avec les hommes- Bien qu’elle ne soit pas encore à leur hauteur. Néanmoins, la plus impressionnante reste celle d’OpenAI. Leur système s’est amélioré en s’appuyant sur une base de données de plus 45 millions de pages web, choisies via Reddit. Une performance inédite selon le MIT Technology Review.