Un groupe d’experts politiques réunis par l’Union européenne a recommandé l’interdiction de l’utilisation de l’IA à des fins de surveillance de masse et de « scoring des individus ». Pour rappel, cette pratique consiste au regroupement des données des citoyens pour évaluer leur intégrité morale, entre autres choses. Une pratique combattue de longue date par la CNIL.

Visiblement, Big Brother va avoir du mal à poser ses valises en Europe. Le groupe d’experts politiques rassemblés par l’UE pour encadrer le développement de l’IA a recommandé l’interdiction de son exploitation à des fins de surveillance de masse et de scoring. Autrement dit, si l’Union européenne choisit de lui faire confiance, la surveillance massive par le biais de la reconnaissance faciale et le système de note sociale qui se développent en Chine ne pourront jamais s’épanouir sur nos terres.

Le projet de développement d’une IA éthique progresse

Si l’Union européenne a rassemblé des experts, c’est parce qu’elle veut s’imposer comme la chef de file d’une IA éthique. Elle veut encadrer son développement, car cette technologie a autant de chances d’avoir un impact désastreux que magnifique sur notre monde. Pour se faire, elle a déjà commencé à proposer des recommandations au début de l’année. À côté de ça, les autres puissances internationales, qui ont bien plus poussé le développement de l’IA, viennent d’accoucher d’un conseil international il y’à peine plus d’un mois.

Pendant ce temps, l’UE a beaucoup progressé sur son projet d’une IA déployée de manière fiable et « centrée sur l’humain ». Les dernières réunions de son conseil ont engendré une nouvelle salve de recommandations. Les plus notables sont celles d’identifier les domaines de recherche sur l’IA qui nécessitent un financement, d’encourager la formation sur cette technologie dans les écoles et les universités, et de développer des méthodes pour surveiller l’impact de l’IA. Surtout, le fer de lance de ces recommandations est bien sûr l’interdiction de l’IA à des fins liberticides.

La Chine fait peur, mais elle ne serait pas plus terrible que l’UE

Le média TheVerge explique que ce qui a motivé cette levée de boucliers contre l’IA liberticide, c’est avant tout la peur de voir émerger un système de notation de masse suite au développement du système de note sociale en Chine.

Pourtant, ce système serait moins terrible qu’il n’y paraît selon des rapports récents évoqués par TheVerge. Il ne serait pas utilisé par Pékin pour contrôler les citoyens, mais plutôt pour éradiquer la corruption dans la société chinoise. La répression des crimes ne serait qu’un objectif secondaire de ce système. Par ailleurs, toujours selon ces rapports, des systèmes de surveillance similaire existeraient déjà en Occident, mais sous la supervision de sociétés privées en lieu et place des gouvernements. Parmi les exemples évoqués, on retrouve celui des réseaux sociaux, qui constituent d’une certaine manière un système de notation et collectent des informations sur nous. Devraient-ils être interdits du fait des recommandations faites à l’Union européenne ?

Dans le même genre, les experts de l’UE se sont prononcés contre l’utilisation de l’IA pour un suivi ou une identification personnelle, physique ou mentale injustifiés des citoyens européens. Pourtant, les entreprises s’en servent déjà, par exemple pour étudier leur productivité. Dès lors, écouter les recommandations du conseil déstabiliserait les entreprises.

C’est clair et net, si mieux encadrer le développement de l’IA est une bonne idée, aller plus loin que des recommandations pour mettre en place une législation claire et complète ne sera pas une mince affaire. Nos politiques vont avoir du travail, et nous risquons bien de nous retrouver avec un code d’éthique du développement de l’IA plus épais que le Code du travail.