Facebook a récemment commis une nouvelle erreur grave. Des utilisateurs regardant une vidéo du média britannique le Daily Mail montrant des personnes noires, se sont vues proposer, par un algorithme, de visionner d’autres vidéos « sur les primates ». Une affaire de plus pour le réseau social, dont les algorithmes et l’intelligence artificielle sont régulièrement critiqués.

Concrètement, l’algorithme aurait demandé aux utilisateurs ayant visionné la vidéo s’ils voulaient « voir d’autres vidéos sur les primates ? ». La question s’est affichée sous le contenu, avec les options « Oui » ou « Rejeter ». La vidéo, qui date de plus d’un an, est intitulée « un homme blanc appelle les flics contre des hommes noirs à la marina ». Bien évidemment, elle ne montre en aucun cas des singes.

Réaction rapide de Facebook

Cette erreur a été confirmée par un tweet contenant une capture d’écran de Darci Groves, ancienne designer de Facebook. « C’est scandaleux », a-t-elle écrit, indignée, tout en appelant ses anciens collègues à faire remonter l’affaire.

Le géant des réseaux sociaux a rapidement réagi. « C’est clairement une erreur inacceptable », a déclaré l’une de ses porte-paroles à l’AFP. Avant d’ajouter « Nous présentons nos excuses à quiconque a vu ces recommandations insultantes ». « Même si nous avons amélioré nos systèmes d’intelligence artificielle, nous savons qu’ils ne sont pas parfaits et que nous avons des progrès à faire », a-t-elle avoué. L’entreprise américaine parle aussi « d’erreur inacceptable » dans un communiqué envoyé au New York Times, qui a révélé l’affaire.

L’outil de recommandation, permettant habituellement de suggérer d’autres contenus sur le même sujet, a été désactivé pour la vidéo du Daily Mail.

L’intelligence artificielle face à ses limites

Cette énième affaire pose la question des limites de l’intelligence artificielle. L’IA est de plus en plus utilisée par Facebook et bon nombre d’autres plateformes. Sa principale utilité est la proposition de suggestions aux utilisateurs, en lien avec leurs activités récentes. Mais ce n’est pas tout. L’IA sert aussi à la modération des contenus. Elle est censée permettre de bloquer tout texte et toute image inappropriés, comme des images racistes… et non pas en créer. Ces erreurs renvoient aux nombreuses et régulières accusations auxquelles fait face le géant américain, et d’autres. Beaucoup leur reprochent un manque de lutte contre les discriminations, mais aussi contre les fausses informations, via une mauvaise utilisation ou élaboration de leurs algorithmes.

Les affaires liées à des erreurs d’intelligence artificielle se multiplient ces dernières années. Ces derniers mois, le président américain Joe Biden a notamment accusé les réseaux sociaux de « tuer des gens » en raison des fausses informations y circulant sur le vaccin contre la Covid-19.

En juillet 2020, face à un boycott de la part des annonceurs qui prenait de l’ampleur, Facebook avait pourtant annoncé intégrer la recherche des préjugés raciaux dans son algorithme. Suite à un appel de plusieurs associations pour lutter contre les contenus raciste et haineux, Coca-Cola, Starbucks et bien d’autres entreprises avaient stoppé la diffusion de leurs publicités sur le réseau social. Une action qui avait fait perdre 56 milliards de dollars de la valeur boursière de l’entreprise.

Pour les associations en question, Facebook ne s’engageait pas assez contre le racisme et les contenus haineux. Face à cela, Mark Zuckerberg et ses équipes ont annoncé la mise en place de nouvelles équipes pour rechercher les préjugés raciaux. Ces équipes sont depuis chargées de modifier les algorithmes, afin que ces derniers détectent plus facilement les contenus à caractères racistes.