IA Bulletin — 2 mai 2026

Midjourney V8.1 sur le site officiel /
Retrait de DALL-E 2 et 3 le 12 mai /
Google DESIGN.md en open source

Midjourney V8.1 disponible publiquement sur midjourney.com, vitesse multipliée par quatre à cinq et rendu HD 2K natif

Midjourney a publié le 30 avril 2026 la version V8.1 directement sur midjourney.com, mettant fin à la phase alpha qui avait commencé sur alpha.midjourney.com début avril, et installant cette version comme moteur par défaut pour tous les utilisateurs payants. La principale annonce est mécanique : les rendus standard sortent quatre à cinq fois plus vite que sur V8, avec des temps mesurés sous quinze secondes en mode Fast contre trente-cinq secondes auparavant. La V8.1 introduit aussi le HD 2K natif sans étape d’upscaling, ce qui dispense les directions artistiques de la passe d’agrandissement systématique pratiquée depuis V6 pour atteindre les formats imprimables. L’équipe revendique une meilleure adhérence au prompt et une lecture plus fine des consignes typographiques courtes, deux points qui pesaient encore sur la fabrication d’une pochette de disque où le titre du morceau doit s’intégrer sans correction post-rendu. La compatibilité ascendante est conservée, V8 reste accessible en option pour préserver les profils Personalization déjà entraînés et les Moodboards construits sur la version précédente.

Note éditoriale

Le saut de vitesse n’est pas une simple optimisation : il déplace l’ergonomie du modèle. Quand un rendu prend dix secondes au lieu de quarante, le geste créatif change de nature — on itère en conversation avec l’image plutôt qu’en lots batchés autour d’un café. Cette ergonomie temps-court rapproche Midjourney d’outils comme Krea ou Flux Realtime, sans renoncer à la signature esthétique qui a fait la maison — cohérence chromatique, sens de la lumière, refus de la sursaturation par défaut.

Le HD 2K natif règle au passage une bizarrerie historique : V8 produisait des images magnifiques mais petites, et la passe d’upscaler systématique amputait souvent la finesse de la matière. La V8.1 publie directement à la taille où l’image sera vue. Pour les designers qui livrent des affiches, des couvertures ou des assets web responsive, cette taille native évite la dépendance à un upscaler tiers et limite les artefacts de second passage qu’aucune retouche manuelle ne sait totalement effacer.

Sources : Midjourney Updates — V8.1 Release NotesMidjourney Documentation — VersionMindStudio — Midjourney v8.1 vs MAI Image 2WaveSpeedAI — What Is Midjourney V8

OpenAI retire DALL-E 2 et DALL-E 3 le 12 mai 2026, ChatGPT Images 2.0 devient le moteur image unique

OpenAI a confirmé le 30 avril 2026 que DALL-E 2 et DALL-E 3 seront retirés de ChatGPT comme de l’API le 12 mai 2026, et remplacés par ChatGPT Images 2.0, sorti en bêta le 21 avril sous l’identifiant gpt-image-2. Ce nouveau modèle est présenté comme le premier image OpenAI doté de raisonnement natif, capable d’interroger le web pendant la génération et d’auto-vérifier ses sorties avant rendu. Il revendique une exactitude texte de 99 pour cent en anglais et plus de 90 pour cent dans six langues supplémentaires — chinois, japonais, coréen, hindi, bengali et arabe —, accepte les ratios de 3:1 à 1:3 et produit jusqu’à huit images cohérentes en une seule passe avec continuité de personnage. L’accès au mode Thinking, qui active la recherche web et la vérification, reste réservé aux abonnés Plus, Pro, Business et Enterprise, le mode Instant restant offert au tier gratuit. La trajectoire est nette : trois ans après que DALL-E 2 ait popularisé l’image générative grand public en avril 2022, OpenAI ferme le chapitre original pour ne maintenir qu’un seul moteur.

Note éditoriale

La fin officielle de DALL-E 2 et 3 a quelque chose d’archéologique. DALL-E 2 a fait basculer le grand public dans la culture du prompt en 2022 — sans lui, ni Midjourney ni Stable Diffusion n’auraient eu leur ressort populaire aussi vite. La retirer, ce n’est pas refermer une parenthèse technique mais archiver une grammaire : la maladresse photoréaliste, les visages aux mains incertaines, les textes en gloubi-boulga — toute une signature que les images des deux dernières années portaient sans toujours savoir d’où elle venait.

Le passage à gpt-image-2 consacre un déplacement plus profond : la génération d’image cesse d’être un acte unique pour devenir un raisonnement étalé dans le temps, où le modèle interroge le web, vérifie sa typographie, recompose si nécessaire. Pour les workflows pros, c’est moins de retouche post-rendu mais aussi moins de prise sur le détail — le modèle décide tout seul de modifier ce qu’il croit incorrect, avec la certitude tranquille des systèmes auto-vérifiés. La main du designer doit apprendre à écrire le prompt comme un cahier des charges, pas comme un sortilège.

Sources : OpenAI — Introducing ChatGPT Images 2.0The New Stack — With ChatGPT Images 2.0, OpenAI Now Thinks Before It DrawsTechCrunch — ChatGPT Images 2.0 is a hit in IndiaOpenAI Developer Community — Deprecating DALL-E 3

Google publie DESIGN.md, format open source qui rend les chartes de marque lisibles par les agents IA

Google a publié le 23 avril 2026, et largement diffusé fin avril, le format open source DESIGN.md, fichier texte structuré qui décrit une charte graphique sous une forme directement lisible par les agents IA codeurs et générateurs d’interface. Le fichier combine dans une seule arborescence Markdown les valeurs précises — tokens de couleurs, échelles typographiques, rayons, ombres, espacements — et le contexte humain qui justifie ces choix, là où les chartes traditionnelles séparaient le PDF de présentation et la bibliothèque de tokens dans deux outils distincts. La promesse est explicite : un agent IA qui génère une page web, un email, ou une slide doit pouvoir lire le DESIGN.md d’une marque et produire un rendu cohérent au premier coup, sans devoir deviner la palette ou demander une revalidation à chaque itération. Google a ouvert le format avec une spécification publique, des exemples sur Google Stitch et un parser de référence sous licence permissive. La logique n’est pas anodine : DESIGN.md cherche à devenir pour le design ce que llms.txt est en train de devenir pour le contenu — un fichier convention que tout site sérieux finira par embarquer.

Note éditoriale

Le format DESIGN.md résout un problème que les directions artistiques commencent à toucher en pratique : les agents IA produisent maintenant assez de matière pour qu’une charte de marque doive exister en deux versions — une pour les humains, une pour les machines. Pendant trente ans, le brand book était un PDF avec des paragraphes de fond et quelques pages de tokens. Le voilà obligé de se traduire en données structurées, sous peine de voir les outils génératifs improviser une palette tous les vendredis.

L’intérêt critique du format, c’est qu’il garde le contexte narratif à côté des tokens — pas seulement « --accent: #118AB2 » mais aussi « accent froid à utiliser uniquement sur les surfaces denses, jamais sur la typographie ». Les agents lisent les deux. C’est dans ce mariage que se joue la vraie question du moment : les modèles auront-ils accès à la culture qui sous-tend une marque, ou seulement à ses paramètres de surface ? Google parie qu’une convention ouverte vaut mieux qu’une boîte noire propriétaire. Pour une fois, l’intérêt des designers et celui des plateformes coïncident.

Sources : Creative AI News — Google DESIGN.md AI-Readable Brand Design FormatGoogle Stitch — AI-readable design systemGitHub — google/design-md (spec et parser de référence)
New Isabelle Ivanova Single — Studio Takuya
New Isabelle Ivanova Single — Studio Takuya