Le plus grand réseau social du monde est chaque année confronté à un problème de taille : les faux comptes et les posts à caractère “abusif”. En 2019, entre avril et septembre, Facebook affirme avoir supprimé 3,2 milliards de faux comptes et 2,5 millions de posts ne respectant pas les règles du réseau social.

Du ménage dans les faux comptes et dans les posts

Facebook fait régulièrement le tri dans les faux comptes (3,2 milliards cette année contre 1,55 milliards en 2018 sur la même période) mais aussi dans les publications de ses utilisateurs. D’après le dernier rapport de modération du contenu publié par l’entreprise, 11,6 millions de contenus à caractère sexuel ou faisant mention de l’exploitation sexuelle des enfants ont été supprimés sur Facebook. Sur Instagram, ce sont 754 000 publications qui ont été retirées pour les mêmes raisons.

Ce n’est pas tout : l’entreprise a également supprimé 4,4 millions de contenus qui mettaient en avant de la drogue. Aussi, 2,5 millions de posts encourageant le suicide ou l’automutilation ont été bannis par les modérateurs du réseau social. Ces chiffres sont en constante augmentation et Facebook tient à nous alarmer sur le sujet. De nombreuses autres publications considérées comme des fake news ont été retirées.

La nouvelle politique de Facebook est-elle dangereuse ?

Le nombre de publications à caractère pédo-pornographique est aussi en hausse. Les régulateurs craignent que les nouvelles politiques de Facebook visant à améliorer la vie privée de ses utilisateurs, puissent bénéficier aux prédateurs sexuels sur les réseaux sociaux. En effet, le directeur du FBI, Christopher Wray, déclarait récemment que “malheureusement, nous sommes convaincus que les changements de politique de Facebook pourraient transformer la plateforme en un rêve devenu réalité pour les prédateurs sexuels”.

Le réseau social et les chercheurs en désinformation affirment qu’Instagram est l’application la plus préoccupante en matière de fake news. Les moyens de détection des faux comptes et de la désinformation fonctionnent moins bien sur Instagram que sur Facebook. Chris Sonderby, auteur de ce rapport pour Facebook, affirme que de nouvelles mesures doivent être prises pour améliorer l’identification des contenus considérés comme des fake news sur ce réseau.

Les modérateurs de contenus ne s’ennuient pas

Vous l’avez compris, les modérateurs de Facebook ont du travail. L’entreprise explique qu’en plus des outils basés sur l’intelligence artificielle et le machine learning qui permettent de supprimer une grande partie du contenu et des faux comptes, bien souvent avant qu’il ne soit vu, la technologie a ses limites notamment lorsque le contexte doit être pris en compte pour analyser une publication. C’est à ce moment précis que les modérateurs de contenus entrent en scène !

Ce sont 7 500 personnes qui travaillent à temps plein à travers le monde. Autant de modérateurs capables de couvrir l’ensemble des fuseaux horaires et plus de 50 langues. La langue est clé oui, mais pour des contenus où il est question de nudité, il suffit d’une simple analyse visuelle qui peut se faire par n’importe quel modérateur. Facebook insiste sur le fait que : “en plus de la maîtrise de la langue, nous recherchons également des personnes qui connaissent et comprennent la culture nous vérifions également la capacité de résilience de nos modérateurs. Cela signifie que nous regardons la capacité d’un candidat à faire face à l’imagerie violente par exemple”.