Le 14 avril, Twitter a annoncé travailler sur une intelligence artificielle éthique. En effet, le réseau social souhaite améliorer ses algorithmes de machine learning. Le but est non seulement de les rendre plus transparents, mais également de donner un peu plus de contrôle aux utilisateurs sur les contenus qu’ils voient dans leur fil d’actualité. Ce nouvel outil permettrait aussi de répondre aux critiques sur les divers dangers liés à ces technologies.

Une intelligence artificielle plus éthique pour répondre aux critiques

Dans une note de blog, Twitter a indiqué vouloir améliorer ses algorithmes de machine learning. Ainsi, l’entreprise a présenté la “Responsible Machine Learning Initiative”. Grâce à cela, la plateforme déduit, en fonction de votre activité, vos préférences. Mais « quand Twitter utilise le machine learning, cela peut avoir des conséquences pour des centaines de millions de tweets par jour, et parfois, un système peut se comporter différemment de l’intention selon laquelle il a été conçu », constate la société californienne.

Ces dernières années, Twitter s’est beaucoup fait critiquer pour ses algorithmes, parfois jugés problématiques. L’année dernière, de nombreux utilisateurs avaient pointé du doigt son processus de recadrage de photos qui favorisait systématiquement, sur les photos comportant une personne blanche et une autre noire, l’affichage de la personne blanche. De nombreux internautes avaient posté des exemples de ce “parti pris” de l’IA mis au point par le réseau social.

Bien que les algorithmes permettent de personnaliser le fil d’actualité d’un utilisateur, ils sont parfois accusés, dans certains cas, de favoriser les contenus polémiques, ou même de propager la désinformation. La décision de Twitter de modifier ses algorithmes est de faire en sorte “qu’ils assument la responsabilité et la transparence de leurs décisions en amont et l’équité des résultats en aval”.

Pour mener à bien ce projet, l’équipe de recherche en charge de la modification de ces algorithmes devra d’abord publier plusieurs études. Ces dernières porteront sur les éventuels aspects racistes ou sexistes de l’algorithme, afin d’éviter de nouvelles polémiques. “Les recommandations de contenus pour différentes idéologies politiques dans 7 pays différents” sont également au cœur du projet.

Si Twitter a décidé d’être plus transparent quant à ses avancées dans le domaine de l’IA éthique, ce n’est pas le cas de tous. Google travaillait également sur une intelligence artificielle de ce type, amenant à une série de désaccords entre la direction et l’équipe de recherche concernée. En décembre dernier, une chercheuse avait même été mise à la porte pour avoir relevé les problèmes de diversité, mais également les déviances de l’IA de Google.