Skip to main content

18 Jan, 2023

Des artistes poursuivent Stabile Diffusion et Midjourney pour avoir utilisé leur travail afin d’entraîner une IA qui vole leurs travaux.

Des artistes poursuivent Stabile Diffusion et Midjourney pour avoir utilisé leur travail afin d’entraîner une IA qui vole leurs travaux.

« Aujourd’hui, nous faisons un pas de plus pour rendre l’IA équitable et éthique pour tout le monde. »

Un groupe d’artistes poursuit les créateurs des générateurs d’images « Stable Diffusion » et « Midjourney », rapporte The Verge, pour avoir utilisé leur art afin d’entrainer une IA qui vole leurs travaux.

Avec Stable Diffusion, il est très facile de s’approprier le style d’un artiste particulier. Sur simple demande, les utilisateurs peuvent générer n’importe quel nombre d’images qui ressemblent de près au langage visuel d’un créateur de renom.

Il n’est pas surprenant que l’essor de ces générateurs d’images irrite de nombreux artistes. De leur point de vue, les créateurs de ces algorithmes ont utilisé leur propre travail pour créer un système qui menace aujourd’hui leurs moyens de subsistance – et ils n’obtiennent rien de cet arrangement.

C’est pourquoi trois artistes ont intenté une action collective, affirmant que les systèmes d’apprentissage automatique portent atteinte aux droits de « millions d’artistes » – une action qui pourrait créer un précédent dans ce domaine naissant.

« Au fur et à mesure que j’en apprenais davantage sur les pratiques des modèles médiatiques d’IA profondément exploitants, j’ai réalisé qu’il n’existait aucun précédent juridique pour établir ce droit », a tweeté Karla Ortiz, l’une des trois artistes. « Changeons cela. »

« Aujourd’hui, nous faisons un pas de plus pour rendre l’IA juste et éthique pour tout le monde », a écrit Matthew Butterick, écrivain et avocat, dans un billet de blog annonçant le procès.

Ce n’est pas le seul procès intenté contre des entreprises comme Stability AI. Le fournisseur de photos et d’illustrations Getty Images a annoncé cette semaine qu’il poursuivait également la startup pour violation du « droit d’auteur sur le contenu détenu ou représenté par Getty Images », selon un communiqué.

Getty Images affirme que la société « a illégalement copié et traité des millions d’images protégées par le droit d’auteur et les métadonnées associées détenues ou représentées par Getty Images » sans avoir de licence « et au détriment des créateurs de contenu. »

Stability AI, qui a lancé sa version publique de Stable Diffusion en août, a entraîné ses algorithmes sur un ensemble de données massif baptisé LAION-5B, qui « racle » des images et du texte sur Internet, créé par l’organisme à but non lucratif LAION, basé en Allemagne.

Selon les outils qui peuvent analyser ces ensembles de données pour voir si le travail d’un artiste donné a été raclé, certains artistes comme le peintre Erin Hanson ont découvert que LAION-5B avait raclé des milliers d’images de son art, a rapporté CNN en octobre.

En d’autres termes, il semble y avoir des preuves irréfutables que Stable Diffusion génère de l’art basé sur le travail réel d’artistes spécifiques.

« Cette photo avec les fleurs violettes et le coucher de soleil », a déclaré Eric Hanson à CNN en examinant les efforts déployés par le diffuseur pour générer des œuvres basées sur son travail, « ressemble vraiment à l’une de mes peintures, vous savez ? ».

Mais il sera plus difficile qu’on ne le pense de savoir si Matthew Butterick et Getty Images parviendront à faire valoir avec succès que Stable Diffusion viole en fait le droit d’auteur. D’une part, les créateurs d’outils artistiques d’IA soutiennent qu’ils sont protégés par les lois américaines sur l’utilisation équitable.

Ensuite, il y a le fait que LAION affirme n’avoir jamais stocké d’images ou de textes protégés par le droit d’auteur.

« Les ensembles de données de LAION sont simplement des index de l’internet, c’est-à-dire des listes d’URL des images originales avec les textes ALT liés à ces images », peut-on lire sur le site web de l’organisation à but non lucratif. « Bien que nous ayons téléchargé et calculé les CLIP embeddings des images pour calculer les scores de similarité entre les images et les textes, nous avons ensuite écarté toutes les photos. »

Bien que l’issue de ces procès soit tout sauf certaine, ils sont révélateurs d’une vague de fond dans les actions menées contre des entreprises comme Stability AI. Les artistes du monde entier sont furieux que leur travail soit utilisé pour entraîner des algorithmes d’IA sans qu’on leur demande d’abord ou qu’ils soient rémunérés équitablement.

Mais cela pourrait bientôt changer. Selon le rapport de CNN, LAION et Stability AI travaillent avec des artistes pour trouver de nouveaux moyens de les rémunérer pour l’utilisation de leur travail.

Stability AI a également annoncé en décembre qu’elle permettrait aux artistes de faire retirer leurs œuvres des ensembles de données de formation pour une prochaine version baptisée Stable Diffusion 3.0.

Mais il reste à voir si cela suffira à rassurer les artistes à l’avenir. Après tout, le mal est déjà fait.

https://futurism.com/artists-sue-stabile-diffusion-midjourney

https://www.theverge.com/2023/1/16/23557098/generative-ai-art-copyright-legal-lawsuit-stable-diffusion-midjourney-deviantart

https://twitter.com/kortizart/status/1614460962756780034

https://stablediffusionlitigation.com/

https://newsroom.gettyimages.com/en/getty-images/getty-images-statement

https://laion.ai/faq/

https://arstechnica.com/information-technology/2022/12/stability-ai-plans-to-let-artists-opt-out-of-stable-diffusion-3-image-training/