IA Bulletin — 27 avril 2026

Wan 2.7 et le mode raisonnement chez Alibaba /
FLUX.2 [klein] 4B Apache dans ComfyUI /
Lightroom Classic 15.3 et Generative Remove via Firefly

Wan 2.7 et le Thinking Mode chez Alibaba, mais les poids restent fermés

Le laboratoire Tongyi d’Alibaba a poussé Wan 2.7 en accès cloud le 6 avril 2026 et l’intégration ComfyUI via Partner Nodes a suivi le même jour, ouvrant la sortie publique du modèle aux pipelines locaux par appel API. La nouveauté centrale est un Thinking Mode : le modèle planifie d’abord la composition de la scène — cadrage, profondeur, mouvements de caméra, agencement des sujets — avant de générer la séquence, à la manière d’un story-board exécuté par lui-même. Sur le papier, Wan 2.7 produit du 1080p jusqu’à 15 secondes, accepte cinq images de référence pour fixer des personnages, gère 9 sous-plans en grille 3×3 et sort un audio natif synchronisé, ce qui le place au niveau de Seedance 2.0 et Veo 3.1 sur les benchmarks vidéo. La rupture politique est ailleurs : pour la première fois depuis Wan 2.1 sous Apache 2.0, Alibaba garde les poids fermés à la sortie et ne s’engage que sur une fenêtre flottante « dans 4 à 8 semaines » pour la publication des binaires open source. La communauté ComfyUI, qui dépendait des Wan ouverts pour ses workflows vidéo locaux, doit composer entre l’API payante et l’attente d’une sortie tardive qui n’est plus garantie.

Note éditoriale

Le Thinking Mode n’est pas un gadget. Faire planifier la composition par le modèle avant la rastérisation transpose à la vidéo générative l’intuition que les modèles de langage ont tirée du raisonnement étape par étape, et c’est cohérent avec ce qu’on voit déjà depuis six mois : la qualité d’une vidéo IA dépend moins du moteur que de la spécification que le moteur a réussi à se faire de la scène. Si Tongyi documente correctement le format de plan intermédiaire, on peut imaginer y injecter un story-board human-readable et reprendre la main au point d’exécution.

La vraie nouvelle de la semaine est le revirement de licence. Alibaba avait construit son crédit auprès de la communauté en publiant Wan 2.1 et Wan 2.2 sous Apache 2.0, exactement le geste qui faisait des Wan le pendant ouvert des Veo et Seedance. En passant à un cloud-first avec sortie open différée et conditionnelle, Tongyi rejoint la trajectoire que Stability avait empruntée à l’automne dernier, et le bénéfice de réputation se dissipera vite si la fenêtre de huit semaines se transforme en attente indéterminée.

Sources : ComfyUI Blog — Wan 2.7 is now availableTellers AI — Thinking Mode and closed weightsWaveSpeedAI — Wan 2.7 features and API pathEfficienist — Alibaba releases Wan 2.7

FLUX.2 [klein] 4B sous Apache 2.0 entre dans ComfyUI avec ses workflows officiels

Black Forest Labs a publié au cours de la semaine du 20 avril la quantification FP8 et NVFP4 de son modèle FLUX.2 [klein] 4B, accompagnée de workflows ComfyUI officiels et d’un dépôt Hugging Face mis à jour pour les variantes Base et Distilled. La variante 4B, sortie en janvier, reste sous licence Apache 2.0 — usage commercial libre, modification, redistribution — alors que la 9B, plus capable mais 1,8 fois plus lourde, demeure sous FLUX Non-Commercial License. Les chiffres du nouveau préset NVFP4 publiés par BFL et confirmés sur RTX 5090 par les nodes ComfyUI annoncent jusqu’à 55 % de VRAM en moins et 2,7× de débit, ce qui ramène la 4B à 13 Go de VRAM en runtime typique et fait passer la génération sous la seconde par image en pleine résolution. Les workflows officiels couvrent texte vers image, édition contextuelle inline et compositing multi-références — soit la trinité utile pour préparer une série de visuels de pochette d’album sans quitter ComfyUI. C’est la première fois qu’un modèle d’image fondamental, frontier-grade et explicitement ouvert au commerce, atterrit avec un guide d’intégration aussi soigné dès le jour de la quantification.

Note éditoriale

Le geste compte plus que les chiffres. Pendant que Wan 2.7 ferme ses poids et que Stability se replie sur l’entreprise, BFL signe l’une des dernières publications open source fondamentales du secteur image — non pas un fine-tune communautaire, mais un modèle base utilisable en production sans avocats. La seconde lecture est plus dure : la 4B suffit pour une grande partie des usages éditoriaux, mais la 9B reste verrouillée, et c’est cette asymétrie que BFL monétise. Le studio qui veut la qualité haute paie, celui qui veut la liberté apprend à ne pas en avoir besoin.

Pour ComfyUI, l’arrivée du couple FLUX.2 [klein] 4B / NVFP4 valide le pari fait à la levée de la semaine dernière : le pipeline local reste pertinent dès que les modèles ouverts gardent un rythme. Tant qu’une fondation comme BFL publie une 4B Apache trois mois après sa frontier, la troisième voie entre studio fermé et appli consommateur tient. Ce sera plus difficile si BFL passe à un cycle uniquement commercial à la prochaine génération.

Sources : Hugging Face — FLUX.2-klein-4BComfyUI Docs — FLUX.2 Klein 4B GuideVentureBeat — FLUX.2 [klein] open sourceApatero — Apache 2.0 commercial use guide

Lightroom Classic 15.3 ajoute Generative Remove et la recherche par phrase complète

Adobe a déployé en avril 2026 la version Lightroom Classic 15.3 et les builds desktop et mobile correspondants, qui intègrent quatre fonctions génératives autour de Firefly. Generative Remove, hérité de Photoshop, permet de supprimer un personne, un poteau, une poubelle ou une ombre dans un cliché par simple sélection — le moteur Firefly reconstruit l’arrière-plan dans le pipeline RAW sans casser le profil colorimétrique. La recherche par phrase complète accepte désormais des requêtes du type « bateaux au coucher du soleil sur la côte » et indexe la photothèque par contenu visuel inféré, sans dépendre du tagging manuel. Le clic droit sur une image expose un nouveau menu « Start a Mood Board » qui exporte la sélection vers Adobe Firefly et la relie au reste du pipeline, tandis que Firefly AI Assistant, dévoilé le 15 avril, peut désormais orchestrer Lightroom dans la chaîne Creative Cloud aux côtés de Photoshop, Premiere et Illustrator. En parallèle, Denoise, Raw Details et Super Resolution passent en traitement d’arrière-plan, libérant l’interface pendant que les calculs lourds tournent.

Note éditoriale

Lightroom est l’outil dans lequel les photographes professionnels passent le plus de temps après la prise, et c’est précisément pour cette raison qu’Adobe avait jusqu’ici laissé les fonctions génératives à Photoshop — pour préserver le pacte implicite avec les puristes du raw. Le 15.3 acte la fin de cette séparation. Generative Remove dans le pipeline raw n’est pas un détail technique : il efface la frontière entre photographie et image générée au moment où le photographe est le plus vulnérable à la facilité, juste avant l’export.

L’autre lecture est positive et professionnelle. Le couplage avec Firefly AI Assistant signifie que Lightroom devient une station orchestrable, et que l’archive raw d’un studio peut servir de matière à des moodboards éditoriaux sans copier-coller manuel entre applis. L’outil photo cesse d’être une fin de chaîne pour devenir un nœud du pipeline créatif, et c’est probablement la transformation Adobe la plus profonde du printemps, plus encore que l’Assistant lui-même.

Sources : Lightroom Queen — What’s new in Lightroom Classic 15.3PhotoshopCAFE — Big Lightroom update April 2026KelbyOne Insider — April 2026 featuresPetaPixel — Faster AI workflows in Lightroom
Figures — Studio Takuya
Figures — Studio Takuya