L’Office of Science and Technology Policy (OSTP), un service rattaché à la Maison-Blanche, a publié, le 4 octobre, son projet de Déclaration des droits de l’intelligence artificielle (IA). Axé autour de cinq principes, il devrait permettre aux citoyens américains d’avoir plus de contrôle sur l’utilisation de leurs données par des systèmes algorithmiques. Cependant, certains acteurs du secteur estiment que ces mesures ne sont pas suffisantes et souffrent de la comparaison avec les réglementations européennes.

Un projet pour encadrer davantage l’intelligence artificielle aux États-Unis

Les directives en matière des droits de l’IA proposées par l’administration Biden ont été rédigées en collaboration avec des entreprises telles que Microsoft et Palantir, des groupes de défense des droits de l’Homme et de l’éthique de l’IA, et le grand public de manière générale. Celles-ci se concentrent sur cinq points fondamentaux. Elles stipulent que les personnes :

  • Ont un droit de contrôle sur l’utilisation de leurs données personnelles ;
  • Ont le droit de refuser les décisions automatisées par des algorithmes ;
  • Ont le droit d’être tenus éloignées le plus possible des algorithmes inefficaces et dangereux ;
  • Ont le droit de savoir lorsqu’une intelligence artificielle prend une décision à leur sujet ;
  • Ont le droit de ne pas être discriminées par des algorithmes biaisés.

Alondra Nelson, directrice adjointe de l’OSTP pour la science et la société, a indiqué à WIRED que « les technologies vont et viennent, mais les libertés fondamentales, les droits, les opportunités et l’accès doivent rester ouverts, et c’est le travail du gouvernement de s’assurer que c’est le cas ». Elle ajoute que « [ce projet], c’est la Maison-Blanche qui dit que les travailleurs, les étudiants, les consommateurs, les communautés, tout le monde [aux États-Unis] devrait pouvoir attendre et exiger mieux de nos technologies ».

Néanmoins, le projet de Déclaration des droits de l’intelligence artificielle ne fera pas office de loi, comme peut l’être la Déclaration des droits des États-Unis, constituée des dix premiers amendements de la Constitution américaine. Il s’agit surtout d’un livre blanc non contraignant qui ciblera seulement l’utilisation de l’IA et des algorithmes par les agences gouvernementales américaines. En d’autres termes, il n’aura aucun pouvoir sur les grandes entreprises technologiques.

Un accueil en demi-teinte

La réception de cette annonce, qui marque le début des réglementations de l’intelligence artificielle aux États-Unis, a été pour le moins mitigée. Certains dirigeants de grandes entreprises du secteur de la Tech comme Eric Schmidt, ancien président-directeur général de Google, considèrent que ces directives risquent de limiter l’innovation. « Il y a trop de choses qu’une réglementation précoce pourrait empêcher de découvrir », a-t-il déclaré au Wall Street Journal.

D’autres, comme Mark Surman, directeur exécutif de la Fondation Mozilla derrière le navigateur Firefox, saluent la position du gouvernement. Il précise au média américain que « Les systèmes d’IA qui imprègnent nos vies sont souvent construits d’une manière qui va à l’encontre d’un ou plusieurs de ces principes. Ils sont conçus pour collecter des données personnelles, pour être intentionnellement opaques et pour tirer des enseignements d’ensembles de données existants, souvent biaisés ». De plus, il appelle les législateurs fédéraux à développer un cadre formel et applicable le plus rapidement possible.

L’Europe comme exemple ?

Si pour de nombreux acteurs du secteur, ces directives sont au final inoffensives, c’est parce qu’elles sont comparées aux législations européennes relatives à l’intelligence artificielle. Depuis 2018, la Commission européenne cherche à réglementer les systèmes IA sur le territoire européen. Pour y parvenir, elle a commencé à définir l’« Artificial Intelligence Act », un projet visant à encadrer l’usage de l’intelligence artificielle en Europe.

À travers celui-ci, elle désire prévenir des dangers potentiels inhérents à l’utilisation de l’IA tout en tenant responsables les entreprises qui causeraient des torts en se servant de ces technologies. Elle peut également s’appuyer sur son Règlement général sur la protection des données (RGPD) pour s’assurer que les entreprises de l’industrie ne puissent pas récupérer les données des européens comme bon leur semble.

Pour Peter van der Putten, directeur du laboratoire de recherche sur l’IA pour la société de logiciels Pegasystems, « au niveau mondial, les États-Unis sont en train de rattraper leur retard, mais dans un marché de plus en plus mondialisé, de nombreuses entreprises américaines sont contraintes de se conformer aux politiques étrangères ». Il reste encore du chemin pour que les réglementations de l’IA sur les terres de l’oncle Sam atteignent le niveau de celles de l’Union européenne.