Pega veut permettre aux entreprises d’exploiter tout le potentiel de l’intelligence artificielle, mais de manière responsable. Ethical Bias Check, nom donné à cette nouvelle fonctionnalité, est capable d’éliminer les offres ou messages jugés discriminatoires. La solution développée par Pega peut être implémentée sur n’importe quel canal de communication et permettre à une entreprise de mieux maîtriser les étapes du parcours client.

Ethical Bias Check devra détecter les failles discriminatoires

Si vous ne le saviez pas encore, oui l’intelligence artificielle peut adopter des comportements discriminatoires. Plusieurs cas l’ont déjà prouvé. On se souvient notamment d’un algorithme de santé aux États-Unis, dont le rôle était d’attribuer un score à chaque patient pour déterminer le montant des aides à percevoir, présentant des caractéristiques discriminatoires. L’intelligence artificielle prenait en compte les caractéristiques ethniques des patients pour établir le score des patients

Cela ne sera probablement plus possible avec Ethical Bias Check. Non détectées, les failles discriminatoires peuvent générer des pratiques néfastes comme la réduction du nombre de prêts, de polices d’assurances ou d’offres promotionnelles. Inutile de rappeler qu’elles peuvent évidemment stigmatiser certaines populations, comme c’est le cas avec cet algorithme de santé. D’un point de vue éthique, les entreprises ne peuvent se permettre de prendre ce risque. Pega va accompagner les entreprises dans ce sens.

Objectif : éviter un impact négatif sur les clients

En s’appuyant sur des analyses prédictives, Ethical Bias Check est capable de simuler les résultats escomptés d’une intelligence artificielle. Les utilisateurs recevront des alertes si le risque atteint un niveau défini comme inacceptable. L’essence même de l’intelligence artificielle est d’apprendre à apprendre.

Seulement parfois, le modèle de base peut s’éloigner de son champ d’action et s’écarter des données démographiques de départ. Pega est capable d’ajuster la stratégie, pour aider à garantir des résultats équitables et plus équilibrés pour tous. Rob Walker, Vice-President Decisioning & Analytics de Pegasystems explique que :

« Alors que l’IA s’immisce aujourd’hui dans la quasi-totalité des aspects de l’engagement client, certains incidents majeurs ont permis aux entreprises de prendre progressivement conscience du risque lié aux données biaisées involontaires et de leur impact négatif sur les clients. Avec la fonction Ethical Bias Check, nous équipons les entreprises d’outils capables de lutter contre les données biaisées générées par l’IA pour optimiser leurs interactions clients et augmenter leur valeur vie client ».
Quand on sait qu’aujourd’hui l’intelligence artificielle est capable de déterminer le risque criminel d’un individu, une telle fonctionnalité devrait vite trouver son utilité. Un rapport publié par AI Now au début de l’année 2019 expliquait que : « nos sociétés n’ont pas les outils nécessaires pour se défendre contre le raisonnement des machines ». Même si l’outil développé par Pega s’inscrit dans les étapes marketing du parcours client, on peut imaginer que des scénarios autres que commerciaux pourraient voir le jour.