À Washington D.C., ce mercredi 13 septembre, le gratin de la Silicon Valley s’est entretenu avec les sénateurs américains au sujet de l’intelligence artificielle (IA). À l’ombre des regards des journalistes, Elon Musk, Mark Zuckerberg ou encore Sam Altman ont évoqué les dangers de la technologie, et les mesures à prendre pour les éviter.

Un double enjeu pour les dirigeants des big tech

C’est le sujet brûlant dans l’industrie de la tech depuis bientôt un an. L’IA est au cœur du travail de nombreux géants technologiques, qui la déploient progressivement dans leurs produits. Le sénateur démocrate Chuck Schumer, conscient du manque de connaissance de ses pairs à son sujet, a convié plusieurs mastodontes du secteur afin d’en apprendre plus.

Il est conscient qu’il faut agir vite. Alors que l’Union européenne a d’ores et déjà avancé sur sa réglementation avec l’AI Act, les États-Unis traînent. Si un cadre législatif a été présenté la semaine dernière et quinze entreprises se sont engagées à sécuriser la technologie, rien n’est encore en place pour encadrer l’IA. Un décret présidentiel doit toutefois être signé dans l’année pour la réglementer. Néanmoins, les législateurs doivent comprendre la technologie pour y parvenir.

Bill Gates, fondateur de Microsoft, Sam Altman d’OpenAI, Satya Nadella de Microsoft, Jensen Huang de Nvidia, Sundar Pichai de Google, Mark Zuckerberg de Meta ou encore Elon Musk de X, Tesla et SpaceX, ont tous répondu présents. Pour ces dirigeants, l’enjeu était de taille : montrer leur bon vouloir pour encadrer l’IA, tout en influençant les décideurs à leur avantage.

Des désaccords subsistent

La plupart d’entre eux s’est accordée sur la nécessité de réglementer l’intelligence artificielle. Des désaccords subsistent cependant, notamment au sujet de l’open-source défendu par Meta. Des sociétés comme Anthropic ou OpenAI assurent que cette pratique est dangereuse, la technologie pouvant être exploitée à des fins malveillantes. Au contraire, Zuckerberg estime que « l’open-source démocratise l’accès à ces outils, ce qui contribue à uniformiser les règles et à favoriser l’innovation pour les personnes et les entreprises ».

Musk, qui a cosigné une lettre alertant sur les nombreux dangers de l’IA, s’est montré le plus véhément à l’égard de la technologie et de ses risques. Pour sa part, le PDG de Google a qualifié l’événement de « productif » et a souligné la nécessité pour le gouvernement de trouver un équilibre entre « l’innovation et la mise en place de mesures de protection adéquates ». Le sénateur Schumer promet que les prochaines rencontres similaires seront publiques, le huis clos étant vivement critiqué par les journalistes s’étant rendus sur place.

Les démocrates demandent des comptes aux entreprises d’IA sur le travail « fantôme »

En parallèle, des parlementaires démocrates font pression sur les grandes entreprises technologiques pour qu’elles s’ouvrent sur les conditions de leurs travailleurs invisibles dans le domaine de l’IA.

Pour développer des produits d’IA, les entreprises américaines font largement appel à du personnel sous-traitant, situé dans le pays ou à l’étranger. Il est embauché par l’intermédiaire de sociétés de recrutement externes et ne bénéficie souvent pas des avantages accordés aux employés directs. Les firmes ont, en général, recours à ce type de travail pour des tâches fastidieuses, telles que la modération du contenu et l’assurance qualité des produits.

« On attend d’eux qu’ils éliminent les réponses dangereuses des chatbots, mais ils n’ont pas toujours le temps d’évaluer la sécurité d’une réponse. Les travailleurs du secteur des données sont souvent peu formés ou supervisés, ce qui peut entraîner l’introduction de préjugés », écrivent-ils dans une lettre qui reste, pour le moment, sans réponse.