L’Université de Chicago propose Glaze et Nightshade pour offrir aux artistes une défense contre l’IA
Pressée ? Voici les Faits Essentiels !
- Glaze et Nightshade protègent les œuvres des artistes contre l’utilisation non autorisée dans la formation d’IA.
- Glaze masque les images pour empêcher l’IA de reproduire le style d’un artiste.
- Nightshade perturbe l’IA en ajoutant des pixels « empoisonnés » qui corrompent les données d’apprentissage.
Les artistes ripostent contre les modèles d’IA exploitants avec Glaze et Nightshade, deux outils développés par Ben Zhao et son équipe du SAND Lab de l’Université de Chicago, comme rapporté aujourd’hui par MIT Technology Review.
Ces outils visent à protéger les œuvres des artistes contre leur utilisation sans consentement pour entraîner des modèles d’IA, une pratique que de nombreux créateurs considèrent comme du vol. Glaze, téléchargé plus de 4 millions de fois depuis sa sortie en mars 2023, masque les images en ajoutant des modifications subtiles qui empêchent l’IA d’apprendre le style d’un artiste, explique le MIT.
La Belladone, une contrepartie « offensive », perturbe encore plus les modèles d’IA en introduisant des modifications invisibles qui peuvent corrompre l’apprentissage de l’IA si elles sont utilisées lors de l’entraînement, comme l’a noté le MIT.
Ces outils ont été inspirés par les préoccupations des artistes face à l’essor rapide de l’IA générative, qui s’appuie souvent sur des images en ligne pour créer de nouvelles œuvres. Le MIT rapporte que l’illustratrice de fantasy Karla Ortiz et d’autres créateurs ont exprimé leurs craintes de perdre leur gagne-pain alors que les modèles d’IA reproduisent leurs styles distincts sans permission ni paiement.
Pour les artistes, publier en ligne est essentiel pour la visibilité et les revenus, pourtant beaucoup envisagent de retirer leurs œuvres pour éviter d’être utilisées pour la formation d’IA, un acte qui nuirait à leurs carrières, comme l’a noté le MIT.
Nightshade, lancé un an après Glaze, offre une défense plus agressive, rapporte le MIT. En ajoutant des pixels « empoisonnés » aux images, il perturbe l’entraînement de l’IA, amenant les modèles à produire des résultats déformés si ces images sont extraites.
L’effet symbolique de la belladone a résonné avec les artistes, qui le voient comme une justice poétique : si leur travail est volé pour l’entraînement de l’IA, il peut endommager les systèmes qui l’exploitent.
Le MIT soutient que ces outils ont été accueillis avec un certain scepticisme, les artistes s’inquiétant initialement de la protection des données. Pour répondre à cela, le SAND Lab a sorti une version de Glaze qui fonctionne hors ligne, assurant ainsi qu’aucun transfert de données n’a lieu et renforçant la confiance des artistes craignant l’exploitation.
Le laboratoire a également récemment élargi son accès en s’associant à Cara, une nouvelle plateforme sociale qui interdit le contenu généré par l’IA, comme le souligne le MIT.
Zhao et son équipe visent à modifier la dynamique de pouvoir entre les créateurs individuels et les entreprises d’IA.
En proposant des outils qui protègent la créativité des grandes entreprises, Zhao espère donner aux artistes le pouvoir de garder le contrôle sur leur travail et de redéfinir les normes éthiques autour de l’IA et de la propriété intellectuelle, selon le MIT.
L’effort gagne en dynamisme, mais certains experts mettent en garde contre le fait que ces outils peuvent ne pas offrir une protection infaillible, car les pirates et les développeurs d’IA cherchent des moyens de contourner ces mesures de sécurité, comme le note le MIT.
Maintenant que Glaze et Nightshade sont accessibles gratuitement, le SAND Lab de Zhao continue de mener la charge pour défendre l’intégrité artistique contre l’influence croissante de la création de contenu pilotée par l’IA.
Laisser un commentaire
Annulez