En avril 2021, la Commission Européenne a proposé une loi visant à encadrer les intelligences artificielles (IA). La période de consultation de cette loi s’est terminée le 8 août et c’est maintenant au tour du Parlement européen et du Conseil européen de l’examiner. Plus de 300 organisations œuvrant pour la défense des droits de l’homme, l’éthique dans l’IA ou encore contre les discriminations se sont prononcées sur la loi, tout comme nombre d’entreprises.

Retour sur la loi européenne d’encadrement des IA

Dans les grandes lignes, la loi sur l’IA catégorise quatre risques : inacceptable, élevé, limité et minimal. Peu de risques sont considérés comme inacceptables. C’est néanmoins le cas de la notation sociale, de l’exploitation de la vulnérabilité des enfants, des techniques de manipulations subliminales, et de la surveillance dans les espaces publiques. Pour ce dernier, le texte comporte plusieurs exceptions qui sont vivement critiquées par les associations de défense des droits numériques.

Les IA considérées comme à risque élevé sont celles susceptibles de nuire à la santé ou à la sécurité d’une personne, de porter atteinte aux droits fondamentaux, tels que le droit à la vie, la non-discrimination ou le droit à un procès équitable.

De nombreuses craintes émises par les associations

L’alliance évangélique européenne pointe que toutes les formes d’IA susceptibles de nuire aux personnes devraient être scrutées. Pour cause, il a été démontré à plusieurs reprises que certains programmes d’IA étaient biaisées : racisme, sexisme, discrimination face à une appartenance à une religion minoritaire, à la communauté LGBTQ, aux personnes handicapées… L’alliance évangélique note également que les IA susceptibles de nuire à l’environnement, tout comme le transhumanisme, doivent être étiquetées à haut risque. Dans le même sens, l’Union des libertés civiles pour l’Europe demande à ce qu’un audit par un tiers soit obligatoire pour ces AI considérées comme à haut risque. Aujourd’hui, le projet de loi a rendu les audits obligatoires uniquement pour certaines formes d’identification biométrique, comme la reconnaissance faciale.

« Ces systèmes constituent une menace pour nos libertés individuelles, notamment le droit à l’éducation, le droit à un procès équitable, le droit à la vie privée et le droit à la liberté d’expression. Ils créent souvent une situation de déséquilibre des pouvoirs et ont d’énormes répercussions sur les droits fondamentaux des personnes. Il est inacceptable de déléguer leur évaluation des risques à des entreprises à but lucratif qui se concentrent sur l’obéissance aux règles lorsqu’elles y sont contraintes et non sur la protection des droits fondamentaux », a écrit l’Union des libertés civiles pour l’Europe à la Commission européenne rapportée par Wired.

Access Now, association de défense des droits civils numériques, a rejoint une centaine de parlementaires européens pour appuyer le bannissement de plusieurs autres champs. C’est le cas des IA permettant le contrôle des frontières et de l’immigration. Pour l’association, le projet est trop vague et par conséquent contient trop de failles. Access Now estime que le niveau de risque considéré comme inacceptable doit être plus clairement défini pour qu’il puisse servir à interdire de nouvelles formes d’IA par la suite. La CNIL a également pointé cette nécessité de tracer des lignes rouges aux futurs usages de l’IA.

L’organisation non gouvernementale (ONG) Future of Life Institute insiste sur le fait qu’une IA doit être abordée pour toutes ses utilisations et non pas pour une fonction unique. L’ONG craint que cela « permette à des technologies de plus en plus évolutives d’échapper à l’examen réglementaire ».

Les estimations de coûts de mise en conformité à la loi vont de 400 000 à 10 000 euros

Future of Life Institute plaide pour une définition plus stricte de ce qui est considéré comme une manipulation subliminale, une pratique interdite par la loi sur l’IA. L’ONG estime que le fait de maximiser les clics publicitaires conduit à des dépendances chez les utilisateurs, et dans certains cas amène à une baisse de la santé mentale, favorise les fausses informations ou les informations radicales. Côté santé mentale, dans sa série Dopamine, Arte va dans le sens de l’ONG.

Le comité des médecins européens a également formulé une demande. Il souhaite que les IA liées aux assurances ou aux traitements médicaux soient considérées comme à haut risque. Enfin, Climate Change AI souhaite que l’empreinte carbone des intelligences artificielles soit prise en compte dans les risques.

Il n’y a pas que le monde associatif et militant qui s’intéresse au projet de loi, les entreprises le font aussi, mais pas exactement pour les mêmes raisons. Ce sont des craintes quant au coût financier de la loi et une entrave à l’innovation qui ressortent chez ces acteurs. Le Centre pour l’innovation des données estime qu’il faut compter un budget allant jusqu’à 400 000 euros pour la mise en conformité avec la loi sur l’IA. Au total, sur les cinq prochaines années, la loi pourrait coûter jusqu’à 31 milliards d’euros aux entreprises.

Les sommes calculées par la Commission européenne sont moins vertigineuses. Selon une étude de l’UE, la mise en conformité coûterait entre 10 000 euros et 30 000 euros. Une étude réalisée conjointement par Meeri Haataja, PDG d’une startup spécialisée en intelligence artificielle, et par Joanna Bryson, professeure d’éthique et de technologie à la Hertie School Data Science Lab en Allemagne, chiffre cette conformité à la loi sur l’IA à 13 000 euros.

Les grandes entreprises proposent leurs visions

Joanna Bryson soutient que cela n’est pas insurmontable pour les entreprises, qui ont déjà des frais de ce type sur des sujets comme la cybersécurité ou la protection des données. « Si une entreprise n’est pas prête à dépenser une certaine somme d’argent pour examiner ce genre de problèmes, elle ne devrait peut-être pas se lancer dans des logiciels présentant des risques », estime Joanna Bryson. À garder en tête qu’avant l’entrée en vigueur du RGPD, les entreprises redoutaient d’être contraintes de quitter l’Europe. Ce qui n’est pas arrivé.

Parmi les entreprises s’étant prononcées sur la loi européenne d’encadrement de l’intelligence artificielle se trouvent Nokia, Philips, Siemens, le groupe BMW, Facebook, Google, IBM, Intel, Microsoft ou encore OpenAI. La majorité des commentaires apportés à la loi sur l’IA proviennent de structures issues de Belgique, de France, d’Allemagne et des États-Unis.

Facebook s’inquiète particulièrement des articles de loi concernant la publicité ciblée. Mastercard s’oppose à ce que des programmes jugeant la solvabilité des personnes soient considérés comme à risque élevé arguant que cela diminue les évaluations de crédit. Plusieurs cas ont pourtant mis la lumière sur des discriminations au sein des algorithmes de prêts et de services financiers.

De son côté, Google indique qu’il sera très difficile, voire impossible, pour les développeurs de programmes d’IA de se conformer aux nouvelles règles européennes. Probablement pour simplifier les choses, Google souhaite qu’il y ait une distinction entre ​​« développeurs », « fournisseurs », « distributeurs » et « importateurs ». Ainsi, l’ensemble des responsabilités ne reposerait pas uniquement sur le développeur mais aussi sur l’utilisateur de l’IA. Microsoft a formulé une demande similaire.