News Corp, groupe de presse détenant notamment le Wall Street Journal et le Sunday Times, est engagé dans « diverses négociations » avec des sociétés d’intelligence artificielle (IA). Ces discussions abordent l’utilisation de son contenu, un sujet de plus en plus brûlant dans le monde des médias.

Pas d’action en justice, pour le moment

Les modèles qui alimentent les IA comme ChatGPT, Google Bard ou encore Claude 2 sont en effet formées sur de vastes quantités de textes issus d’Internet, qu’il s’agisse d’articles de presse, de pages Wikipédia ou d’œuvres présentes sur la toile. Problème, les entreprises ne spécifient pas les données sur lesquelles leurs systèmes ont été entraînés, et ceux-ci ont parfois tendance à générer du contenu très semblable aux textes d’origine.

Dans ce contexte, Robert Thomson, le directeur général de News Corps, a expliqué avoir débuté des négociations avec les entreprises concernées. « Ce que vous verrez au fil du temps, ce sont de nombreux litiges ; certaines sociétés de médias ont déjà entamé ces discussions », a-t-il indiqué lors d’une conférence avec ses investisseurs.

Pour sa part, News Corp n’envisage pas, pour l’heure, d’intenter une action en justice. « Cela ne nous intéresse pas à ce stade. Nous sommes beaucoup plus intéressés par la négociation », a continué le dirigeant.

Les médias montent au créneau

De plus en plus de médias agissent face à l’évolution de l’intelligence artificielle. Une coalition d’entre eux a exigé un cadre réglementaire pour l’utilisation de la technologie, tandis que d’autres souhaitent une redevance financière pour l’exploitation de leurs articles dans l’entraînement des modèles de langage. Il est probable que les négociations évoquées par Thomson se concentrent sur un tel accord.

De son côté, le New York Times a tout bonnement interdit aux entreprises d’exploiter son contenu pour former leurs systèmes. Certains éditeurs craignent également que les IA mettent à mal leurs sources de revenus en publiant du contenu réutilisé sans mentionner la source. Ils redoutent aussi que ces modèles contribuent à la désinformation à cause de leur propension à « halluciner ».

Les données utilisées pour former les IA sont l’un des points phares de l’AI Act, la législation européenne qui vise à réglementer l’usage de l’intelligence artificielle. Lorsqu’elle entrera en vigueur, certaines entreprises seront contraintes de préciser la source des informations utilisées pour entraîner les modèles.