Compatible avec Mac et Windows et téléchargeable sur le site de l’Université de Chicago, Nightshade est une véritable arme pour les artistes en guerre contre les IA génératives. Et pour cause, il s’agit d’« un outil offensif » visant à « déformer l’interprétation d’une image que peut effectuer une IA générative » écrivent les chercheurs. De quoi intensifier les tensions entre les créateurs de contenu et les fournisseurs d’IA générative.
Un « poison » pour l’IA générative
Nightshade est capable d’« empoisonner » l’IA générative en lui faisant reconnaître des éléments transformés par un jeu de lumière et une modification au niveau des pixels. Par conséquent, ce qu’elle verra sera totalement différent de la réalité : « l’œil humain verra l’image d’une vache dans un champ verdoyant […] alors que le modèle d’IA verra un grand sac à main en cuir posé dans l’herbe. » Induite en erreur, l’IA produira alors des contenus erronés pour ses utilisateurs.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Ce logiciel s’inscrit dans la continuité de l’outil Glaze conçu par les mêmes chercheurs. Cependant, Glaze se limite à apposer sur l’œuvre une couche d’informations invisible qui rend impossible la reproduction du style de celle-ci. Il s’agit donc d’un « outil défensif » contrairement à Nightshade qui est un outil plus puissant et « offensif » capable de « perturber les modèles d’IA » et que « les artistes peuvent utiliser collectivement ».
Toutefois, les chercheurs conseillent aux artistes d’utiliser les deux outils pour mieux protéger leurs œuvres. Aussi, ils ont annoncé travailler à l’élaboration d’un nouveau logiciel intégrant les apports à la fois de Glaze et de Nightshade.
Mettre fin à l’ « asymétrie de pouvoir »
La création de Nightshade est révélatrice de l’inquiétude de nombre d’artistes et de créateurs de contenu face à la montée en puissance des IA génératives qui s’entraînent librement sur leurs œuvres. D’autant plus que, comme l’expliquent les chercheurs, « peu d’outils peuvent empêcher que leur contenu soit introduit dans un modèle d’IA générative contre leur volonté. Les listes d’exclusion ont été ignorées par les entraîneurs d’IA dans le passé et peuvent être facilement ignorées sans aucune conséquence ».
C’est pourquoi ils souhaitent mettre fin à cette « asymétrie de pouvoir » en incitant les fournisseurs d’IA générative à n’exploiter que les contenus non protégés par des droits d’auteur sous peine de voir leurs modèles d’apprentissage empoisonnés par Nightshade. Cette approche est habile. Surtout quand on sait que la jurisprudence américaine actuelle permet aux IA de s’entraîner sur n’importe quelles œuvres. En effet, comme on l’a vu dans l’affaire opposant des artistes contre Stability AI, Midjourney et DeviantArt, le juge interdit seulement aux IA génératives de reproduire un contenu similaire à une œuvre protégée.
Ces chercheurs ne sont pas les seuls à vouloir abolir cette « asymétrie de pouvoir » entre les IA génératives et les créateurs de contenu, artistes ou non. Actuellement, le nombre de contentieux opposant les fournisseurs d’IA générative et les ayants droit de contenus protégés ne fait qu’augmenter. Récemment, le New York Times a même engagé une bataille juridique titanesque contre OpenAI. Dans sa plainte déposée le 27 décembre 2023, le prestigieux journal américain estime à « plusieurs milliards de dollars » le préjudice subi à cause d’une exploitation abusive de ses articles par l’IA de la start-up.
Pour contrer cette « rébellion » anti-IA, deux principales stratégies sont mises en place par les fournisseurs d’IA générative. La première est de conclure des accords avec des propriétaires de contenus protégés par le droit d’auteur comme l’a récemment fait OpenAI avec le groupe allemand Axel Springer (Bild, Die Welt, Business Insider, Politico) et l’agence de presse Associated Press. Moyennant des frais importants, la start-up peut désormais puiser dans une grande partie de leurs contenus. La deuxième est de garantir aux utilisateurs une protection en cas de litige lié à une violation du droit d’auteur comme le fait Microsoft, Adobe, Shutterstock, Getty Images ou encore Google. Pas de quoi calmer les tensions…