Cet article date de plus d'un an.

Face au pillage de l'intelligence artificielle, un logiciel baptisé "Glaze" pour protéger les œuvres artistiques

Alors que l'Intelligence artificielle dite "générative" s'approprie le travail des artistes sans leur consentement, des étudiants américains ont mis au point une parade pour protéger les œuvres en attendant une future régulation.
Article rédigé par franceinfo Culture avec AFP
France Télévisions - Rédaction Culture
Publié
Temps de lecture : 2 min
Intelligence artificielle (image prétexte). (FANATIC STUDIO / GARY WATERS / SCIEN / FST / AFP)

Alors que l'intelligence artificielle (IA) aspire le travail des artistes et les inquiète au plus haut point, un logiciel baptisé "Glaze", mis au point par des étudiants aux Etats-Unis, pourrait venir à leur secours en protégeant leurs œuvres du plagiat par l'IA.

L'été dernier, les artistes ont découvert avec effroi que des programmes d'IA dite "générative" pouvaient désormais produire, sur simple requête, un dessin de chien "comme Sarah Andersen" ou une image de nymphe "façon Karla Ortiz". Une appropriation sans que les intéressés n'aient donné leur consentement, soient crédités ou compensés financièrement.

Glaze induit en erreur l'IA "générative"

Face à ce péril existentiel pour les artistes, des étudiants de l'université de Chicago ont trouvé la parade, au moins provisoirement. Ils ont mis au point un logiciel qui permet de générer une version "masquée" d'une oeuvre originale (dessins, peinture, etc), pour la protéger des programmes d'intelligence artificielle (IA). Nouvel outil au service des artistes, Glaze ("vernis" en anglais) ajoute en filigrane une couche d'informations quasiment invisibles à l'oeil nu.

L'auteur peut ensuite publier en ligne l'image modifiée. Si un modèle d'IA générative essaie de s'en servir, les données informatiques ajoutées empêcheront la machine d'analyser correctement le style et de le reproduire.

Glaze peut être téléchargé gratuitement depuis le 15 mars.

Un outil conçu en collaboration avec les artistes

Le SAND Lab de la Chicago University a décidé de concevoir Glaze après avoir été contacté par des artistes, outrés que des programmes comme Stable Diffusion ou Midjourney permettent à leurs utilisateurs de générer en quelques secondes des images imitant leur style de façon très sophistiquée.

"Nous travaillons sur les questions de sécurité et de confidentialité des systèmes d'IA, mais d'habitude nous travaillons plutôt sur des outils au cas où tel ou tel problème se pose", explique à l'AFP Shawn Shan, l'étudiant chargé de Glaze. "Cette fois-ci le problème existe déjà, cela entraîne des dommages réels pour les artistes, ils ont besoin d'outils pour les protéger".

L'équipe de chercheurs et ingénieurs a travaillé en collaboration avec des artistes, dont Karla Ortiz, une des plaignantes dans les poursuites lancées en nom collectif à San Francisco contre Midjourney, Stable Diffusion et DreamUp, trois modèles d'IA formés grâce à des milliards d'images récoltées sur internet.

Une solution d'urgence "pour gagner du temps"


"Avec Glaze, Stable Diffusion ne pourra pas apprendre le style de Karla. Le modèle identifiera son art différemment (comme si c'était du van Gogh, par exemple)", détaille un communiqué. "Si quelqu'un demande ensuite à Stable Diffusion de générer une oeuvre dans le style de Karla Ortiz, il obtiendra des images dans le style van Gogh (ou quelque chose d'hybride)".

L'équipe reconnaît cependant que Glaze n'est pas une solution permanente contre l'imitation par l'IA. Les entreprises spécialisées seront sans doute capables de contourner l'obstacle, forçant les étudiants à améliorer leur outil, et ainsi de suite. "L'IA évolue très vite, trop vite", reconnaît Shawn Shan. "L'idée est de gagner du temps en attendant qu'il y ait plus de régulation".

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.