Ce site vous indique si des photos de vous ont été utilisées pour entraîner l’IA •

Deepfakes, porno généré par l’IA et mille autres utilisations innocentes – il y a eu beaucoup de nouvelles sur les images générées par les réseaux de neurones. Il est logique que les gens aient commencé à devenir curieux ; mes photos ont-elles été utilisées pour entraîner les robots ? Y a-t-il des photos de moi dans les ensembles d’entraînement de génération d’images ? Un tout nouveau site essaie de vous donner une réponse.

Spawning AI crée des outils de génération d’images pour les artistes, et la société vient de lancer Have I Been Trained? que vous pouvez utiliser pour rechercher un ensemble de 5,8 milliards d’images qui ont été utilisées pour former des modèles d’art AI populaires. Lorsque vous effectuez une recherche sur le site, vous pouvez effectuer une recherche parmi les images qui correspondent le mieux, sur la base des données de formation LAION-5B, qui sont largement utilisées pour former les termes de recherche de l’IA.

C’est un outil amusant avec lequel jouer et qui peut aider à donner un aperçu des données que l’IA utilise comme base pour les siennes. La photo en haut de cet article est une capture d’écran du terme de recherche “couple”. Essayez de mettre votre propre nom et voyez ce qui se passe… J’ai également essayé une recherche sur “Obama”, dont je ne partagerai pas de capture d’écran ici, mais il suffit de dire que ces ensembles de formation peuvent être… problématiques.

Un rapport d’Ars Technica cette semaine révèle que des dossiers médicaux privés – jusqu’à des milliers – font partie des nombreuses photos cachées dans LAION-5B avec des statuts éthiques et juridiques douteux. La suppression de ces enregistrements est exceptionnellement difficile, car LAION n’est pas une collection de fichiers en soi, mais simplement un ensemble d’URL pointant vers des images sur le Web.

En réponse, des technologues comme Mat Dryhurst et Holly Herndon sont à la tête d’efforts tels que Source +, une norme visant à permettre aux gens d’interdire l’utilisation de leur travail ou de leur ressemblance à des fins de formation à l’IA. Mais ces normes sont – et resteront probablement – volontaires, ce qui limite leur impact potentiel.

Via la photographie de bricolage / PetaPixel

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire