OpenAI, la start-up spécialisée dans l’intelligence artificielle générative, a annoncé, le 15 août, sa volonté de tester GPT-4 afin de modérer du contenu sur internet. Elle considère que le modèle de langage « a toutes les qualités pour remplacer les modérateurs humains, tout en étant aussi précis, voire plus cohérent qu’eux ».

OpenAI se met au défi de la modération de contenu

Pour OpenAI, « un système de modération de contenu utilisant GPT-4 permet des ajustements plus rapides de la politique de modération, le cycle se réduisant de mois en heures ». L’outil serait capable de le faire, car il posséderait les capacités lui permettant « d’interpréter les règles et les nuances d’une longue documentation sur les politiques de contenu et de s’adapter instantanément aux mises à jour des politiques, ce qui se traduit par un étiquetage plus cohérent ».

Dans son billet de blog, l’entreprise dirigée par Sam Altman a mis en avant les trois avantages majeurs de GPT-4 par rapport aux méthodes habituellement utilisées pour la modération de contenu. Le premier concerne l’objectivité du jugement et l’interprétation des politiques mises en place par les plateformes en ligne. OpenAI affirme que les grands modèles de langage jugeront les situations semblables de la même manière, là où un humain pourrait prendre deux décisions différentes pour deux cas similaires.

Le deuxième argument évoqué par la société concerne justement la création et la modification de ces politiques d’utilisation. Elle affirme que GPT-4 peut développer une nouvelle politique en quelques heures, alors que généralement, ce processus prend des semaines, voire des mois. Enfin, le dernier avantage concerne le bien-être des modérateurs humains qui ne seront plus continuellement exposés à du contenu discriminatoire ou sensible, l’intelligence artificielle prenant le relais.

GPT-4 pour remplacer les modérateurs humains ?

Toutefois, OpenAI met en garde sur les limites de son modèle de langage, « Les jugements par les modèles de langage sont vulnérables à des biais non désirés, qui pourraient avoir été introduits dans le modèle pendant son entraînement. Comme pour toute application d’IA, les résultats et les sorties devront être soigneusement surveillés, validés et affinés en maintenant les humains au courant, ». GPT-4 serait ainsi un outil permettant d’automatiser la modération de contenu, mais dont les manières de procéder devront être minutieusement vérifiées par un être humain.

Tous les clients d’OpenAI possédant un accès à son API ont la possibilité d’utiliser GPT-4 pour modérer du contenu en ligne. Certains d’entre eux se sont déjà lancés et exploitent l’outil depuis plusieurs semaines. Pour l’heure, de nombreuses plateformes utilisent des algorithmes d’IA pour automatiser les décisions. Elles aussi s’appuient sur des équipes humaines pour traiter les contenus litigieux ou extrêmes, ceux nécessitant une gestion au cas par cas.