Agrandir / Huit images que nous avons générées avec la version alpha de Midjourney v4.
Ars Technica
Samedi, le service d’imagerie AI Midjourney a commencé à tester la version alpha 4 (“v4”) de son modèle de synthèse texte-image, qui est disponible pour les abonnés sur son serveur Discord. Le nouveau modèle fournit plus de détails que ce qui était auparavant disponible sur le service, inspirant certains artistes de l’IA à remarquer que la v4 rend presque “trop facile” l’obtention de résultats de haute qualité à partir de simples invites.
Midjourney a ouvert ses portes au public en mars dans le cadre d’une première vague de modèles de synthèse d’images IA. Il a rapidement gagné un large public en raison de son style distinct et pour être accessible au public avant DALL-E et Stable Diffusion. Avant longtemps, les œuvres d’art conçues par Midjourney ont fait la une des journaux en remportant des concours d’art, en fournissant du matériel pour des enregistrements de droits d’auteur potentiellement historiques et en apparaissant sur des sites Web d’illustrations de stock (plus tard interdits).
Au fil du temps, Midjourney a affiné son modèle avec plus de formation, de nouvelles fonctionnalités et plus de détails. Le modèle par défaut actuel, connu sous le nom de “v3”, a fait ses débuts en août. Maintenant, Midjourney v4 est mis à l’épreuve par des milliers de membres du serveur Discord du service qui créent des images via le bot Midjourney. Les utilisateurs peuvent actuellement essayer la v4 en ajoutant “–v 4” à leurs invites.
“La V4 est une base de code entièrement nouvelle et une architecture d’IA totalement nouvelle”, a écrit le fondateur de Midjourney, David Holz, dans une annonce Discord. “C’est notre premier modèle formé sur un nouveau supercluster Midjourney AI et il est en préparation depuis plus de 9 mois.”
Agrandir / Sortie de comparaison entre Midjourney v3 (à gauche) et v4 (à droite) avec l’invite “un barbare musclé avec des armes à côté d’un téléviseur CRT, cinématique, 8K, éclairage de studio.”
Ars Technica
Lors de nos tests du modèle v4 de Midjourney, nous avons constaté qu’il fournit une bien plus grande quantité de détails que la v3, une meilleure compréhension des invites, de meilleures compositions de scènes et parfois une meilleure proportionnalité dans ses sujets. Lors de la recherche d’images photoréalistes, certains résultats que nous avons vus peuvent être difficiles à distinguer des photos réelles à des résolutions inférieures.
Publicité
Selon Holz, les autres fonctionnalités de la v4 incluent :
– Beaucoup plus de connaissances (des créatures, des lieux, etc.)
– Beaucoup mieux pour obtenir de petits détails (dans toutes les situations)
– Gère les invites plus complexes (avec plusieurs niveaux de détail)
– Mieux avec les scènes multi-objets / multi-personnages
– Prend en charge les fonctionnalités avancées telles que l’invite d’image et les invites multiples
– Prend en charge –chaos arg (réglez-le de 0 à 100) pour contrôler la variété des grilles d’image
La réaction à Midjourney v4 a été positive sur le Discord du service, et les fans d’autres modèles de synthèse d’images – qui luttent régulièrement avec des invites complexes pour obtenir de bons résultats – en prennent note.
Un Redditor nommé Jon Bristow a posté dans la communauté r/StableDiffusion : « Est-ce que quelqu’un d’autre a l’impression que Midjourney v4 est « trop facile » ? c’était préfabriqué.” En réponse, quelqu’un a plaisanté : “C’est triste pour les prompteurs Pro qui vont perdre leur nouvel emploi créé il y a un mois.”
Midjourney dit que la v4 est toujours en alpha, elle continuera donc à corriger les bizarreries du nouveau modèle au fil du temps. La société prévoit d’augmenter la résolution et la qualité des images mises à l’échelle de la v4, en ajoutant des rapports d’aspect personnalisés (comme la v3), en augmentant la netteté de l’image et en réduisant les artefacts de texte. Midjourney est disponible moyennant des frais d’abonnement mensuels compris entre 10 et 50 USD par mois.
Au vu des progrès réalisés par Midjourney en huit mois de travail, on se demande ce que les progrès de l’année prochaine dans la synthèse d’images apporteront.