Il y a quelques semaines, nous vous présentions les nouvelles fonctionnalités de Google en 2019. Aujourd’hui, le géant américain veut faire du ménage dans les centaines de millions de commentaires qui se trouvent sur internet. Pour améliorer l’expérience des utilisateurs, Google développe un nouvel outil d’intelligence artificielle baptisé Tune. Il s’agit d’un système expérimental qui a pour mission de permettre aux utilisateurs de Facebook, YouTube, Twitter, Reddit et Disqus de choisir la quantité de contenu qu’ils veulent filtrer.

Plutôt que de servir les développeurs et les éditeurs, ce nouvel outil est vraiment destiné aux utilisateurs quotidiens des réseaux sociaux. Il y a de plus en plus de personnes inscrites sur les réseaux sociaux, inéluctablement, il y aussi de plus en plus de commentaires. Notamment des commentaires dits « toxiques » ou « polluants ». Tune est une extension de Chrome basée sur les mêmes modèles de machine learning que ceux utilisés sur Perspective, l’API de Google qui signale le contenu toxique.

Tune, le nouvel outil de Google pour filtrer les commentaires toxiques.

D’après CJ Adams, chef de produit chez Google, grâce à Tune, vous pourrez « ajuster le volume des commentaires toxiques. L’outil ressemble à un cadran de volume en forme de bulle de discussion. Il y a un mode zen, qui filtre tous les commentaires que l’outil identifie comme toxiques lorsque vous baissez le volume jusqu’au bout. Si vous avez le volume tout en haut, il affiche tous les commentaires. Un mode intermédiaire permet aux utilisateurs de personnaliser le type de commentaires toxiques qu’ils veulent voir. »

Mais d’ailleurs, c’est quoi un commentaire toxique ? Pour Google, les commentaires toxiques sont caractérisés comme des « commentaires susceptibles de faire sortir les gens d’une discussion ». Malheureusement, Tune étant une extension de navigateur, il ne fonctionne pas encore sur nos applications mobiles. Il semblerait que l’outil soit réellement à son stade expérimental. Par exemple, il est encore difficile pour une intelligence artificielle de faire la différence entre un commentaire toxique potentiellement dangereux pour un utilisateur et un commentaire toxique qui permet de mieux comprendre une discussion.