IA Bulletin — 19 avril 2026

Midjourney V8.1 et le retour des srefs /
Wan 2.7 et Seedance 2.0 dans ComfyUI /
ElevenMusic sur iOS avec licence commerciale

Midjourney V8.1 Alpha : le HD trois fois plus rapide, les srefs retrouvent leur stabilité

Le 14 avril 2026, Midjourney a mis en ligne la V8.1 Alpha sur alpha.midjourney.com, une version correctrice qui répond aux griefs laissés par la V8 brute de décoffrage. Le mode HD est annoncé trois fois plus rapide et trois fois moins cher, tandis que le standard gagne 50 % de vitesse pour 25 % de coût en moins, ce qui change la donne pour les campagnes d'images en série. Les image prompts et les image weights disparus à la V8 sont de retour, et un prompt shortener prend le relais quand le texte dépasse la limite — de quoi faire tourner un générateur de pochettes d'album pilotées par IA sans plus buter sur des messages d'erreur. Les moodboards et les srefs sont qualifiés de « stables » par l'équipe, une mention qu'on attendait depuis l'arrivée de la V7. L'esthétique générale renoue avec la lisibilité de la V7, loin des expérimentations parfois cassantes qui ont marqué les premières semaines de la V8.

Note éditoriale

Midjourney vient de faire ce que peu d'éditeurs savent faire : reconnaître qu'une version majeure était prématurée, et livrer dans la foulée un rattrapage propre. La V8 n'a pas été abandonnée, mais la 8.1 la remet sur rails et rend à nouveau utilisable ce qui était devenu instable — srefs en tête.

Ce qui intéresse un atelier de direction artistique, ce n'est pas la performance brute mais la fiabilité de la référence. Un moodboard qu'on remonte toutes les deux semaines parce que les srefs dérivent, c'est une charge de maintenance qu'aucun studio n'absorbe longtemps. La 8.1 calme ce front-là, et c'est probablement le signal le plus important de la mise à jour.

Sources : Midjourney — V8.1 AlphaMindStudio — What Is Midjourney V8

Wan 2.7 et Seedance 2.0 dans ComfyUI : la vidéo locale rattrape les API fermées

En quelques jours début avril, ComfyUI a vu arriver coup sur coup deux des modèles vidéo les plus attendus : Wan 2.7 (Alibaba) le 6 avril via les Partner Nodes, puis Seedance 2.0 (ByteDance) le 13 avril dans la même architecture. L'enjeu est concret : les équipes qui disposaient déjà d'une infrastructure GPU locale peuvent désormais tourner ces modèles sans passer par une API facturée à la minute, avec la flexibilité totale des nodes ComfyUI pour le montage, les LoRAs et les contrôleurs. Wan 2.7 se distingue par une gestion de l'édition vidéo et des poids ouverts, tandis que Seedance 2.0 impose sa génération audio-vidéo unifiée — un personnage qui parle dans une grande pièce récupère naturellement la réverbération de l'espace. Côté benchmarks, Kling 3.0 reste en tête du classement Arena Vidéo avec 1 243 points Elo, mais l'écart se mesure maintenant en dizaines de points, pas en centaines. Pour un studio indépendant, c'est le moment charnière où la vidéo générative open-source cesse d'être un fallback pour devenir une option crédible de production.

Note éditoriale

Chaque génération d'IA image ou vidéo fait apparaître le même cycle : une API propriétaire prend l'avance, un modèle ouvert rattrape, la communauté installe la brique dans ComfyUI, et la démocratisation opère. Wan et Seedance viennent de franchir cette dernière étape à 48 heures d'intervalle.

Le vrai gain n'est pas tarifaire — il est architectural. Sur un node graph ComfyUI, le modèle redevient une pièce détachée : on l'empile, on le conditionne, on le chaîne à un autre. Là où Runway ou Veo imposent un pipeline clos, ComfyUI transforme la vidéo IA en objet composable. Pour qui sait ce qu'il veut obtenir, la différence est structurante.

Sources : Atlas Cloud — Wan 2.7 vs Seedance 2.0 vs Kling 3.0ComfyUI — Generate video, images, 3D, audio with AI

ElevenMusic sur iOS : une app mobile du prompt musical, licences commerciales dès le premier jour

Le 1er avril 2026, ElevenLabs a lancé ElevenMusic, une application iOS qui permet de générer des titres complets depuis un prompt texte, avec contrôle sur la durée, les paroles et le style — jusqu'à sept titres par jour sur le tier gratuit. L'app combine un générateur classique et une couche de découverte sociale où les créations d'autres utilisateurs peuvent être remixées, un positionnement que la presse spécialisée résume par « Spotify rencontre Suno ». La différence structurante avec les concurrents : toutes les créations sont livrées avec des droits d'exploitation commerciale dès le premier jour, ce qui les rend utilisables en sonorisation de pub, en fond de podcast ou en musique de jeu sans friction juridique. Dans la foulée, ElevenLabs a poussé sa version 5.5 avec un module Voices et un système My Taste qui personnalise les recommandations — l'entreprise capitalise sur des années d'avance en synthèse vocale pour imposer la voix comme vecteur signature. Face à Suno et Udio encore englués dans leurs démêlés avec les majors, la route commerciale choisie par ElevenLabs se révèle déjà payante.

Note éditoriale

Le geste d'ElevenLabs est à la fois défensif et ambitieux. Défensif parce que poser la licence commerciale dès l'origine désamorce la bombe juridique qui mine Suno et Udio. Ambitieux parce que coller un moteur social sur le générateur transforme l'outil en plateforme, pas en simple application.

Pour un musicien qui veut sonoriser ses contenus sans embaucher d'avocat, c'est une offre directement utilisable. Pour un créateur de télécharger la voix qui signe un morceau, en revanche, la porte reste plus entrouverte chez Suno 5.5. Les deux logiques coexisteront un moment — l'une industrielle et légaliste, l'autre expérimentale et signataire — avant qu'un modèle ne s'impose ou que les deux convergent.

Sources : Music Business Worldwide — ElevenMusic iOSVoteMyAI — ElevenMusic vs Suno & Udio