Le président de Microsoft, Brad Smith, a appelé à la mise en place de plusieurs réglementations pour encadrer l’intelligence artificielle (IA) aux États-Unis. Selon lui, le gouvernement doit agir « plus rapidement ».

Des obligations pour les entreprises fournissant des outils d’IA puissants

Ces derniers mois, de nombreuses entreprises ont intégré des outils d’IA à leurs produits. C’est notamment le cas de Google et de Microsoft, qui ont mis de puissants modèles entre les mains de millions d’utilisateurs. Cette course à l’IA suggère que les entreprises sacrifient la sécurité pour devancer leurs concurrents. Dans ce contexte, les législateurs ont publiquement exprimé leurs craintes à propos de cette technologie, particulièrement vis-à-vis de la désinformation, de l’emploi et de la cybercriminalité.

Devant une audience peuplée de législateurs, Brad Smith a détaillé des mesures qui, d’après lui, doivent rapidement être adoptées par le gouvernement américain afin d’éviter les dérives des usages de l’IA. Il a ainsi plaidé pour l’instauration de garde-fous, par exemple en mettant en place des obligations à respecter pour les entreprises qui fournissent des applications basées sur des systèmes d’IA puissants.

Ces firmes devraient avoir la responsabilité de savoir qui sont leurs clients en cas d’utilisation abusive de la technologie, et devraient être tenues d’étiqueter ou de marquer lorsqu’un élément de contenu numérique a été créé par l’IA plutôt que par un être humain, estime-t-il. Smith s’est également montré en faveur de la création d’une nouvelle agence chargée de délivrer des licences pour les principaux systèmes d’intelligence artificielle, idée aussi émise par le PDG d’OpenAI, Sam Altman, devant le Congrès américain la semaine dernière.

L’Europe en avance sur les États-Unis sur le sujet

Dans un billet de blog publié après son intervention, Brad Smith appelle le gouvernement à désigner certains modèles d’IA à « haut risque » pour exiger qu’ils soient dotés d’un « frein de sécurité ». Il considère par ailleurs que les entreprises doivent assumer la « responsabilité » juridique des préjudices associés à l’IA.

Certaines de ces mesures sont incluses dans l’AI Act européen, vaste texte visant à encadrer l’usage de l’intelligence artificielle sur le Vieux Continent. Pour l’instant, l’Union européenne (UE) est en avance sur les États-Unis sur ce point, notamment car les législateurs américains sont actuellement concentrés sur la limite de la dette, ce qui laisse peu de temps pour légiférer sur d’autres sujets, indique le Wall Street Journal.

En l’absence d’action gouvernementale, le président de Microsoft a indiqué que son entreprise avait discuté avec d’autres acteurs de l’industrie d’un ensemble de normes pour les systèmes d’IA. « Il existe une opportunité pour l’industrie de partager les meilleures pratiques, les principes communs et même d’adopter un ensemble de normes », a-t-il souligné, ajoutant néanmoins qu’il était préférable que le gouvernement joue un rôle de premier plan dans cette réglementation.

À noter qu’à la suite de l’audience de Sam Altman devant le Congrès la semaine passée, des chercheurs ont prévenu les régulateurs de ne pas se laisser influencer par des propositions soutenues par des intérêts corporatistes, leur conseillant plutôt de tenir compte d’un éventail d’avis d’experts.