Comment vous pouvez dire que les images AI de l’arrestation de Trump sont des deepfakes

Le virus généré par l’IA Les images de l’arrestation de Donald Trump que vous voyez peut-être sur les réseaux sociaux sont définitivement fausses. Mais certaines de ces créations photoréalistes sont assez convaincantes. D’autres ressemblent davantage à des images fixes d’un jeu vidéo ou à un rêve lucide. Un fil Twitter d’Eliot Higgins, l’un des fondateurs de Bellingcat, qui montre que Trump se fait envahir par des flics synthétiques, courir en cavale et choisir une combinaison de prison a été visionné plus de 3 millions de fois sur la plate-forme de médias sociaux.

Que pense Higgins que les téléspectateurs peuvent faire pour faire la différence entre de fausses images d’IA, comme celles de son article, et de vraies photographies qui pourraient provenir de l’arrestation potentielle de l’ancien président ?

“Ayant créé beaucoup d’images pour le fil, il est évident qu’il est souvent se concentre sur le premier objet décrit – dans ce cas, les différents membres de la famille Trump – avec tout ce qui l’entoure ayant souvent plus de défauts », a déclaré Higgins par e-mail. Regardez en dehors du point focal de l’image. Le reste de l’image semble-t-il être une réflexion après coup ?

Même si les dernières versions des outils d’image AI, comme Midjourney (dont la version 5 a été utilisée pour le fil susmentionné) et Stable Diffusion, font des progrès considérables, les erreurs dans les petits détails restent un signe courant de fausses images. Alors que l’art de l’IA gagne en popularité, de nombreux artistes soulignent que les algorithmes ont encore du mal à reproduire le corps humain de manière cohérente et naturelle.

En regardant les images AI de Trump à partir du fil Twitter, le visage semble assez convaincant dans de nombreux messages, tout comme les mains, mais son les proportions du corps peuvent sembler tordues ou fondu dans un policier à proximité. Même si c’est évident maintenant, il est possible que l’algorithme puisse éviter les parties du corps d’apparence particulière avec plus d’entraînement et de raffinement.

Besoin d’un autre dire? Cherchez des écritures étranges sur les murs, les vêtements ou d’autres objets visibles. Higgins pointe vers texte désordonné comme moyen de différencier les fausses images des vraies photos. Par exemple, la police porte des badges, des chapeaux et d’autres documents qui semblent avoir des lettres, à première vue, sur les fausses images d’officiers arrêtant Trump. A y regarder de plus près, les mots n’ont aucun sens.

Une autre façon de savoir qu’une image est générée par l’IA consiste parfois à remarquer expressions faciales exagérées. “J’ai également remarqué que si vous demandez des expressions, Midjourney a tendance à les rendre de manière exagérée, les plis cutanés dus à des choses comme le sourire étant très prononcés”, a déclaré Higgins. L’expression douloureuse sur le visage de Melania Trump ressemble plus à une recréation de The Scream d’Edvard Munch ou à une photo d’un film d’horreur A24 inédit qu’à un instantané d’un photographe humain.

Gardez à l’esprit que les dirigeants mondiaux, les célébrités, les influenceurs des médias sociaux et toute personne disposant de grandes quantités de photos circulant en ligne peuvent sembler plus convaincants dans les photos falsifiées que les images générées par l’IA de personnes ayant une présence Internet moins visible. “Il est clair que plus une personne est célèbre, plus l’IA a dû apprendre d’images”, a déclaré Higgins. “Très très les personnages célèbres sont extrêmement bien rendus, tandis que les personnes moins célèbres sont généralement un peu bancales. Pour plus de tranquillité d’esprit quant à la capacité de l’algorithme à recréer votre visage, il peut être utile de réfléchir à deux fois avant de publier une photo de selfies après une soirée amusante avec des amis. (Bien qu’il soit probable que les générateurs d’IA aient déjà récupéré vos données d’image sur le Web.)

À l’approche de la prochaine élection présidentielle américaine, quelle est la politique de Twitter concernant les images générées par l’IA ? La politique actuelle de la plate-forme de médias sociaux se lit, en partie, “Vous ne pouvez pas partager de médias synthétiques, manipulés ou hors contexte qui peuvent tromper ou confondre les gens et causer du tort (“médias trompeurs”)”. Twitter prévoit de multiples exceptions pour les mèmes, les commentaires et les messages qui n’ont pas été créés avec l’intention d’induire les téléspectateurs en erreur.

Il y a quelques années à peine, il était presque inimaginable que la personne moyenne puisse bientôt fabriquer chez elle des deepfakes photoréalistes de dirigeants mondiaux. Alors que les images d’IA deviennent plus difficiles à différencier de la réalité, les plateformes de médias sociaux devront peut-être réévaluer leur approche du contenu synthétique et tenter de trouver des moyens de guider les utilisateurs dans le monde complexe et souvent troublant de l’IA générative.

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire