Dans un rapport publié le 16 janvier 2020, LinkedIn détaille la manière avec laquelle il procède pour supprimer les profils des utilisateurs qui ont un comportement abusif. Grâce à l’intelligence artificielle, le réseau social est capable de détecter les injures ou les publicités pour des services illégaux.

Comment faire pour repérer un comportement abusif ?

Fort de ses 660 millions d’utilisateurs, LinkedIn est devenu en quelques années la plateforme idéale pour la prospection. Nombreux sont les commerciaux à faire usage du social selling, à travers LinkedIn. Cependant, comme sur tous les autres réseaux sociaux, quelques dérives surviennent. Des contenus inappropriés peuvent être publiés et des comportement inadéquats identifiés. Pour faire face à phénomène, LinkedIn se sert de l’IA.

L’ingénieur en intelligence artificielle, Daniel Gorham, expliquait récemment dans un billet de blog que LinkedIn s’appuie sur une liste de mots et de phrases créés par l’homme et allant à l’encontre des conditions d’utilisation et des directives du réseau social. Pourtant ce modèle n’est pas suffisant. Certains mots associés à des activités illicites comme « escorte », rappelant la prostitution, pouvait en réalité être utilisé dans des contextes totalement licites.

L’IA : l’ange gardien des réseaux sociaux

Voilà qui a motivé LinkedIn a développé un outil encore plus puissant et plus précis. En adoptant une approche de machine learning, le réseau a gagné en efficacité. Un algorithme formé sur le contenu du profil des membres publics a permis à LinkedIn d’étiqueter certains comptes comme inappropriés ou au contraire comme appropriés. Pour réduire le risque d’erreur, LinkedIn a même identifié ces fameux mots qui posaient problème par le passé. Après cela, le modèle d’intelligence artificielle a pu être déployé à grande échelle.

L’IA est utilisée par de nombreux réseaux sociaux pour surveiller le comportement abusif des utilisateurs. L’application de rencontre Bumble utilise également l’intelligence artificielle pour traquer les photos obscènes. D’après Daniel Gorham, l’outil de détection de comptes inappropriés de LinkedIn examine nos profils quotidiennement. Pour aller encore plus loin, LinkedIn prévoir d’utiliser les services de traduction de Microsoft pour garantir des performances cohérentes dans toutes les langues, et pour affiner son algorithme afin d’augmenter les capacités de son modèle d’IA. L’ingénieur précise que :

« La détection et la prévention des abus sur LinkedIn est un effort continu qui nécessite une collaboration étendue entre plusieurs équipes. Trouver et supprimer les profils avec un contenu inapproprié de manière efficace n’est pas une tâche aisée mais elle est nécessaire pour proposer une plateforme sûre et professionnelle aux utilisateurs ».