Des chercheurs en intelligence artificielle de Google, enseignent aux bots à agréger des informations pour écrire des pages Wikipédia.

Un article, publié par la Cornell University Library, documente comment Google a formé des logiciels à compiler des informations trouvées sur divers sites pour créer un article qui regroupe ses résultats en un seul texte. L’expérimentation est menée par une équipe travaillant au sein de Google Brain, le programme de Google de recherche en IA. Le processus, appelé « résumé extractif« , fonctionne en se servant des dix premières pages Web sur un sujet spécifique. Les pages sont explorées par le logiciel qui va identifier des informations pertinentes sur le sujet et  les organiser afin de créer un article.

Voici un exemple pour illustrer le sujet. Le paragraphe de gauche est un résumé informatisé de l’organisation, et celui de droite est tiré de la page Wikipédia originale écrite par des humains.

Bien qu’il s’agisse d’une amélioration par rapport à ses prédécesseurs, le programme n’est pas parfait. L’algorithme ne crée pas de textes originaux. Il réduit en phrases plus courtes les textes existants en utilisant un modèle abstractif. Cette technique pose également un problème au niveau de la fiabilité des informations. L’algorithme ne prend en compte que les dix premiers sites Web référencés sur internet, sans se soucier de leur provenance. Les auteurs de Wikipédia peuvent donc se sentir rassurés, le programme est encore loin de les surpasser.

SOURCE.