Glaze et Nightshade : Face à l’IA, les algorithmes font de la résistance

Avec l’avènement des intelligences artificielles génératives – à l’instar de DALL-E et Midjourney –, utilisant des images sans le consentement des artistes qui en sont à l’origine, le droit d’auteur se trouve malmené. Pour contrer, au moins temporairement, ce problème, chercheurs et étudiants de l’université de Chicago ont développé des dispositifs visant à induire en erreur les systèmes incriminés.

« DALL-E, produis-moi une œuvre à la façon de Pablo Picasso. » Cette phrase, qui serait passée pour totalement aberrante il y a encore quelques années, est désormais un classique des usagers des outils d’intelligence artificielle générative. Ceux-ci sont à l’image des populaires DALL-E et Midjourney, en mesure de générer des contenus visuels bluffants, à partir d’une simple demande écrite. Cette prouesse est rendue possible en raison des innombrables images dont ils se « nourrissent » pour affiner leurs modèles. Mais avec l’émergence de ce phénomène nouveau, se pose la question de la propriété intellectuelle.

Des plaintes et des projets de loi

Les algorithmes d’IA générative « aspirent » en effet toutes les œuvres à leur disposition, sans le consentement de leurs auteurs. Ils sont ensuite en mesure de reproduire le style d’un artiste, sans que celui-ci ne soit rétribué. Cette problématique a été illustrée récemment dans le domaine de la musique, où des sociétés musicales – Universal en tête –, ont poursuivi la plate-forme Anthropic PBC, accusée d’avoir utilisé des paroles de chansons protégées par le droit d’auteur1. Dans le même temps, un projet de loi, baptisé « NO FAKES Act », a été déposé au Sénat états-unien. Son objectif est d’empêcher la création de répliques numériques du travail d’un artiste – qu’il s’agisse d’images ou de voix – sans son consentement.

« L’idée est de gagner du temps en attendant qu’il y ait plus de régulation »

L’équipe du Glaze Project

En attendant que la législation soit mise en place, l’université de Chicago, poussée par la volonté de proposer une solution aux artistes, a tenté de s’emparer du sujet. Au printemps dernier, des étudiants et chercheurs – regroupés sous le nom The Glaze Project – ont donc conçu un outil nommé Glaze, permettant de « protéger » une œuvre originale en ajoutant en filigrane une couche d’informations quasiment invisibles à l’œil nu. La modification empêche ainsi le modèle d’IA générative d’analyser correctement le style et de le reproduire. L’outil, librement téléchargeable, est à disposition des artistes pour qu’ils puissent modifier leur image avant publication.

Tromper et faire régresser l’IA

Au début de l’année 2024, l’équipe du Glaze Project a proposé un nouvel accessoire, à vocation plus offensive. Baptisé Nightshade, celui-ci se fonde sur le même principe que Glaze – à savoir modifier l’image de manière quasiment imperceptible pour l’œil humain –, mais dans une logique de « data poisoning » (N.D.L.R. Empoisonnement visant à modifier le comportement du système d’intelligence artificielle en introduisant des données corrompues). Une image de vache, protégée par Nightshade, pourrait être par exemple assimilée à un sac en cuir par l’IA. Les images ainsi altérées, si elles sont intégrées par l’IA générative, peuvent tendre à détériorer son fonctionnement, entraînant la production de contenus erronés ou déformés. Une fois entraînée sur un nombre suffisant d’images détournées, celle-ci pourrait finir par générer des images de sacs à main lorsqu’on lui demande des vaches dans un pré.

Si ces solutions sont encore expérimentales et pourraient être rapidement contournées en raison des progrès rapides de l’IA, elles ont le mérite de mettre sur le devant de la scène la problématique rencontrée par les artistes quant à la propriété intellectuelle en lien avec l’IA générative. L’équipe du Glaze Project espère ainsi pousser les entreprises à respecter le droit d’auteur, tout en admettant : « L’idée est de gagner du temps en attendant qu’il y ait plus de régulation. »

Jp Peyrache

Illustration : Sojo

Paru dans La Brèche n° 8 (mai-juillet 2024)

  1. « UMG Sues AI Company for Using Songs to Train Models: “Systematic and Widespread Infringement” », Billboard, 18 octobre 2023 ↩︎