Stability AI prévoit de permettre aux artistes de se retirer de la formation d’image Stable Diffusion 3

Agrandir / Une image générée par l’IA d’une personne quittant un bâtiment, se désengageant ainsi de la convention des stores verticaux.

Ars Technica

Mercredi, Stability AI a annoncé qu’il permettrait aux artistes de retirer leur travail de l’ensemble de données d’entraînement pour une prochaine version de Stable Diffusion 3.0. Cette décision intervient alors qu’un groupe de défense des artistes appelé Spawning a tweeté que Stability AI honorerait les demandes de désinscription collectées sur son site Web Have I Been Trained. Les détails de la mise en œuvre du plan restent cependant incomplets et peu clairs.

En bref, Stable Diffusion, un modèle de synthèse d’images IA, a acquis sa capacité à générer des images en “apprenant” à partir d’un grand ensemble de données d’images extraites d’Internet sans consulter les titulaires de droits pour obtenir la permission. Certains artistes en sont mécontents car Stable Diffusion génère des images qui peuvent potentiellement rivaliser avec les artistes humains en quantité illimitée. Nous suivons le débat éthique depuis le lancement public de Stable Diffusion en août 2022.

Pour comprendre comment le système de désactivation de Stable Diffusion 3 est censé fonctionner, nous avons créé un compte sur Have I Been Trained et téléchargé une image du dépliant d’arcade Atari Pong (que nous ne possédons pas). Une fois que le moteur de recherche du site a trouvé des correspondances dans la base de données d’images LAION (Large-scale Artificial Intelligence Open Network), nous avons cliqué avec le bouton droit de la souris sur plusieurs vignettes individuellement et sélectionné “Désactiver cette image” dans un menu contextuel.

Une fois signalés, nous pouvions voir les images dans une liste d’images que nous avions marquées comme désactivantes. Nous n’avons rencontré aucune tentative de vérification de notre identité ni aucun contrôle légal sur les images que nous avons soi-disant “désactivées”.

Une capture d'écran de Agrandir / Une capture d’écran d’images “désactivées” que nous ne possédons pas sur le site Web Have I Been Trained. Les images avec des icônes de drapeau ont été “désactivées”.

Ars Technica

Autres accrocs : Pour supprimer une image de la formation, elle doit déjà être dans le jeu de données LAION et doit être consultable sur Have I Been Trained. Et il n’existe actuellement aucun moyen de désactiver de grands groupes d’images ou les nombreuses copies de la même image qui pourraient se trouver dans l’ensemble de données.

Publicité

Le système, tel qu’il est actuellement mis en œuvre, soulève des questions qui ont fait écho dans les fils d’annonce sur Twitter et YouTube. Par exemple, si Stability AI, LAION ou Spawning entreprenaient l’énorme effort pour vérifier légalement la propriété afin de contrôler qui refuse les images, qui paierait pour le travail impliqué ? Les gens confieraient-ils à ces organisations les informations personnelles nécessaires pour vérifier leurs droits et leur identité ? Et pourquoi tenter de les vérifier quand le PDG de Stability dit que légalement, l’autorisation n’est pas nécessaire pour les utiliser ?

Une vidéo de Spawning annonçant l’option de désinscription.

De plus, imposer à l’artiste la responsabilité de s’inscrire sur un site avec une connexion non contraignante à Stability AI ou à LAION, puis espérer que sa demande sera honorée semble impopulaire. En réponse aux déclarations sur le consentement de Spawning dans sa vidéo d’annonce, certaines personnes ont noté que le processus de désinscription ne correspondait pas à la définition du consentement dans le règlement général européen sur la protection des données, qui stipule que le consentement doit être donné activement, et non supposé par défaut ( “Le consentement doit être donné librement, spécifique, éclairé et sans ambiguïté. Afin d’obtenir un consentement librement donné, il doit être donné sur une base volontaire.”) Dans ce sens, beaucoup soutiennent que le processus devrait être opt-in uniquement, et tous Les illustrations doivent être exclues de la formation IA par défaut.

Actuellement, il semble que Stability AI opère dans le cadre des lois américaines et européennes pour entraîner Stable Diffusion à l’aide d’images grattées recueillies sans autorisation (bien que cette question n’ait pas encore été testée devant les tribunaux). Mais l’entreprise prend également des mesures pour reconnaître le débat éthique qui a déclenché une grande protestation contre l’art en ligne généré par l’IA.

Existe-t-il un équilibre qui puisse satisfaire les artistes et permettre aux progrès de la technologie de synthèse d’images par IA de se poursuivre ? Pour l’instant, le PDG de Stability, Emad Mostaque, est ouvert aux suggestions, tweetant : “L’équipe @laion_ai est très ouverte aux commentaires et souhaite créer de meilleurs ensembles de données pour tous et fait un excellent travail. De notre côté, nous pensons qu’il s’agit d’une technologie transformatrice et sommes heureux de s’engager avec tous les côtés et d’essayer d’être aussi transparent que possible. Tout bouge et mûrit, vite.

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire