Depuis plusieurs mois, la commission européenne s’attaque à la réglementation de l’intelligence artificielle (IA). Après la publication en février 2021 d’un livre blanc, la concrétisation d’une réglementation européenne en matière d’IA s’est poursuivie le 21 avril avec une proposition de loi.

Les premières esquisses du texte de loi soulignent que « l’intelligence artificielle ne devrait pas être une fin en soi, mais un outil qui doit servir les gens dans le but ultime d’accroître le bien-être humain ». Cependant, Engadget relève que le texte doit s’appliquer aux robots chirurgicaux, mais ne concerne pour l’instant pas les robots militaires.

Pourtant, comme le relève la campagne Stop Killers Robots : « Des armes entièrement automatiques décideraient de qui doit vivre ou mourir, sans aucune intervention humaine : on franchirait ainsi un seuil moral. En tant que machines, elles seraient dépourvues des caractéristiques propres aux êtres humains comme la compassion, et ne pourraient faire de choix éthiques complexes ». Il va sans dire que cela va à l’encontre du « bien-être humain ». L’éthique demeure donc une question phare, peut-être trop oubliée, de l’intelligence artificielle.

« La lecture que j’en ai est que les Européens semblent envisager une surveillance – je ne sais pas si c’est aller trop loin que de dire du berceau à la tombe »

« Le règlement proposé est assez intéressant car il s’attaque au problème à partir d’une approche basée sur le risque », explique Brandie Nonnecke, directrice du Policy Lab du Center for Information Technology Research in the Interest of Society (CITRIS) de l’université de Californie. En effet, dans les grandes lignes, la loi sur l’IA distingue quatre catégories de risque : le risque inacceptable, le risque élevé, le risque limité et le risque minimal. Ainsi, une technologie de crédit social créé par un gouvernement serait interdite.

Les programmes d’IA visant, notamment, l’éducation, le juridique, ou encore l’embauche de salariés sont considérés comme à risque élevé. Cette catégorie d’application ne sera pas interdite, mais étroitement surveillée, ce qui fait sourciller certaines associations de défense des libertés individuelles. « La lecture que j’en ai est que les Européens semblent envisager une surveillance – je ne sais pas si c’est aller trop loin que de dire du berceau à la tombe », confie à Engadget Jennifer King, chargée de la protection de la vie privée et de la politique des données à l’Institut pour l’intelligence artificielle à l’université de Stanford.

Un texte précurseur mais tardif

Au-delà de se plier à la législation européenne, les programmes d’IA considérés à risque élevé devront garder du personnel humain pour fonctionner. Et c’est pourquoi un robot chirurgien entièrement autonome ne verra pas le jour. Les robots militaires sont pour le moment absents du texte, ce qui laisse présager de plus grandes libertés dans ce secteur ou la constitution d’un texte leur étant propre.

En cas de non-respect de la loi sur l’IA, les entreprises écoperont d’une amende de 30 millions d’euros ou de 4% du revenu annuel mondial de l’entreprise. La sanction se tournera vers le montant le plus élevé. Par ailleurs, l’Union européenne travaille à l’élaboration d’un conseil européen pour l’IA afin de superviser la conformité des technologies.

La législation européenne en matière d’IA intervient alors que ce type de programmes est déjà omniprésent dans la vie de nombreuses personnes : algorithmes de recommandations sur Netflix ou Facebook, assistants numériques, ou encore l’internet des objets (IoT). Ce qui n’empêche pas Brandie Nonnecke de féliciter : « La Commission européenne a une fois de plus fait preuve d’audace pour s’attaquer aux technologies émergentes, tout comme elle l’avait fait pour la confidentialité des données avec le RGPD ». Sachant que le Règlement Général sur la Protection des Données (RGPD) – qui régit à lui seul l’ensemble des données numériques, autant sur les réseaux sociaux que pour les objets connectés – a été instauré plus de 10ans après la création de Facebook la notion « d’audace pour s’attaquer aux technologies émergentes » reste à nuancer.