Skip to main content

25 Jan, 2024

Publication d’un logiciel qui sabote les modèles IA qui copient vos œuvres d’art originales

Publication d’un logiciel qui sabote les modèles IA qui copient vos œuvres d’art originales

Protégez votre art, sabotez les modèles IA qui le copient.

Dans le monde d’aujourd’hui, être artiste ne signifie pas seulement s’inquiéter du plagiat et de la duplicité des copieurs, mais aussi des modèles génératifs d’IA qui copient votre travail. Heureusement, un nouvel outil baptisé Nightshade peut non seulement protéger vos images contre l’imitation par des modèles d’IA, mais aussi les « empoisonner » en leur fournissant des données trompeuses.

Après une première annonce à la fin de l’année 2023, les développeurs ont annoncé vendredi qu’une version finalisée de Nightshade était enfin disponible au téléchargement.

C’est le dernier signe en date d’un durcissement de la position des artistes face aux générateurs d’images à base d’IA comme Stable Diffusion et Midjourney, qui ont été entraînés sur leurs œuvres sans autorisation ni compensation.

Contre-attaque des artistes

Les développeurs de Nightshade, une équipe d’informaticiens de l’université de Chicago, affirment que leur logiciel est conçu comme un « outil offensif », alors que son prédécesseur Glaze était conçu comme un outil défensif.

Ils recommandent néanmoins d’utiliser les deux outils. Glaze fonctionne en modifiant subtilement – « glaçage » – une image au niveau du pixel. Ces changements sont en grande partie imperceptibles à l’œil nu, « comme la lumière UV » selon les termes des développeurs, mais ils sont clairement visibles pour les modèles d’intelligence artificielle, qui perçoivent les images différemment. L’effet global obscurcit le contenu d’une image pour une IA.

Nightshade va encore plus loin. En « ombrant » une image, l’outil introduit également des changements subtils, mais ces modifications peuvent amener un modèle d’IA à identifier incorrectement ce qu’il voit. Un humain pourrait voir une « vache dans un champ vert », écrivent les développeurs, « mais un modèle d’IA pourrait voir un sac à main en cuir posé dans l’herbe ».

Pouvoir de négociation

Les développeurs estiment qu’avec une adoption suffisamment large, Nightshade peut être utilisé pour « perturber les modèles qui grattent leurs images sans consentement (protégeant ainsi tous les artistes contre ces modèles) ». Cela pourrait « augmenter le coût de la formation sur des données sans licence », obligeant les entreprises d’IA à ne se former qu’en utilisant des œuvres dont les créateurs ont accordé une licence en bonne et due forme.

Par ailleurs, en utilisant Glaze, les artistes peuvent se débarrasser des messages-guides qui imitent le style d’un artiste spécifique. En effet, certains artistes ont été tellement copiés dans les images générées par l’IA que leur nom a dû être banni des messages-guides – même si cela n’a guère contribué à décourager les artistes tenaces de l’IA qui s’acharnent à copier leur travail.

C’est peut-être le meilleur moyen pour les artistes de protéger leur travail car, à l’heure actuelle, les voies d’un éventuel recours juridique en cas de violation du droit d’auteur restent incertaines. Des artistes et des auteurs – et même Getty Images – ont poursuivi des entreprises d’IA sur ce front, et ce n’est que lorsqu’une décision sera rendue dans ces affaires que la légalité de cette pratique deviendra plus claire. D’ici là, les sociétés d’IA vont s’emparer d’autant de contenus qu’elles le peuvent. Pour l’instant, « l’ombre d’abord, le glaçage ensuite ».

https://futurism.com/the-byte/nightshade-poison-ai-models

https://nightshade.cs.uchicago.edu/

https://www.technologyreview.com/2022/09/16/1059598/this-artist-is-dominating-ai-generated-art-and-hes-not-happy-about-it/