Des chercheurs du MIT-IBM Watson Lab, en collaboration avec l’Université Harvard ont développé un outil troublant. Il s’agit d’une IA capable de repérer du texte généré par une IA. Ce système baptisé GLTR (Giant Language model Test Room) permet de détecter si un texte, sous toutes ses formes, tweet, articles, a été rédigé par une IA ou un humain.

Selon les premiers résultats, GLTR aurait amélioré le taux de détection de faux textes de 54% à 72%, sans aucune formation au préalable. Cette prouesse technologique donne donc des résultats encourageants et pourrait largement aider à détecter des fake news. L’algorithme se base sur les distributions statistiques des mots du texte afin d’identifier les différences entre la rédaction humaine ou celle d’une IA. En principe un texte généré à l’aide d’une intelligence artificielle comportera une chaîne de mots plus prévisible que lorsqu’elle a été écrite par un humain.

Texte rédigé par un humain

Texte rédigé par un humain

Par exemple, sur l’image ci-dessus, les mots qui sont statistiquement plus susceptibles de se trouver après le précédent sont surlignés en vert. Ceux en rouge ou jaune sont moins probables, quant à ceux en violet encore moins. Plus le résultat affiche un rendu jaune et vert, plus le texte risque d’avoir été rédigé par une IA, comme on peut le voir sur l’extrait en dessous.

Texte rédigé par une IA

Texte rédigé par une IA

De telles initiatives peuvent être utiles sur Twitter, afin de détecter les bots qui nuisent grandement aux élections dans le monde entier, mais notamment aux États-Unis. TNW note qu’il existe déjà le Botomètre afin de déterminer si un compte Twitter est géré par un humain ou un bot. Cet outil réussit à trouver la bonne réponse dans 95% des cas.

Pour le moment, aucune de ces innovations n’est infaillible, cependant elles démontrent l’importance d’allier la puissance de l’intelligence artificielle à celle de l’homme pour s’attaquer sérieusement à ces problèmes.