Le 8 avril 2026, MiniMax a annoncé deux nouveaux modèles pour sa plateforme Hailuo AI : T2V-01-Director (texte vers vidéo) et I2V-01-Director (image vers vidéo), conçus autour d'un système de contrôle cinématographique de la caméra en langage naturel — poussée, recul, panoramique, tilt, orbite, travelling. Jusqu'à présent, les modèles de génération vidéo produisaient des mouvements de caméra de manière statistique et non dirigée, imposant au créatif de travailler à partir du résultat plutôt que de le spécifier en amont ; les modèles Director inversent ce rapport en permettant d'indiquer une trajectoire précise avant la génération. La cohérence des personnages d'une séquence à l'autre a également été renforcée, avec un système de référence visuelle qui préserve l'identité d'un plan au suivant sans régénération manuelle. Les modèles sont accessibles via l'API Hailuo et intégrés dans plusieurs plateformes tierces, ce qui les rend disponibles dans les workflows de production indépendants dès leur lancement. Hailuo positionne explicitement ces outils comme une réponse aux besoins des professionnels de la narration visuelle — réalisateurs indépendants, créatifs musicaux en quête de direction artistique maîtrisée — qui trouvaient jusqu'ici les générateurs vidéo trop imprévisibles pour un usage sérieux.
Note éditoriale
Le nom "Director" est un choix rhétorique autant que technique. La question que ce type d'annonce pose n'est pas : "peut-on désormais spécifier un travelling ?" — la réponse est oui, et ce n'est pas anodin. La vraie question est : qui, parmi les utilisateurs de ces outils, a quelque chose à dire avec un travelling ? La maîtrise du langage cinématographique suppose une culture du cinéma, une intention narrative, un regard formé. Un menu déroulant "push/pull/orbit" n'en tient pas lieu.
Ce que le système offre concrètement, c'est la possibilité de traduire une intention préexistante en geste de caméra — ce qui est utile pour quelqu'un qui sait ce qu'il cherche. Pour quelqu'un qui ne le sait pas encore, il s'agit d'un vocabulaire de plus à tester sans boussole. L'outil ne crée pas la vision ; il l'exécute, si elle existe. C'est déjà considérable — mais c'est aussi la limite exacte de ce que ces modèles peuvent faire.
La cohérence des personnages d'un plan à l'autre est en revanche un progrès dont l'utilité pratique est immédiate et peu contestable : elle réduit une contrainte technique réelle, libère du temps de post-production, et rend la narration visuelle multi-plans enfin accessible en dehors des studios disposant d'équipes de compositing dédiées. Ce gain-là ne dépend pas de la vision artistique de l'opérateur — il est structurel.
Le 1er avril 2026, Adobe a publié Photoshop 27.5, une mise à jour qui établit une connexion bidirectionnelle entre Photoshop et Firefly Boards — l'espace de travail génératif d'Adobe lancé en 2025. Le principe est le suivant : un document cloud ouvert dans Photoshop peut être envoyé directement dans Firefly Boards, où le créatif explore des variations par génération de texte en image, remplissage génératif ou transfert de style ; les variations retenues sont ensuite renvoyées dans Photoshop pour la phase de finition au pixel près. Ce workflow rompt avec la logique habituelle qui cantonnait les outils génératifs à une étape préliminaire déconnectée du travail de production : ici, l'idéation et la finition partagent le même espace de fichiers et de calques, sans friction d'import-export. La mise à jour inclut également une phase promotionnelle — générations illimitées pour les abonnés Creative Cloud jusqu'au 9 avril 2026 — qui a mis en visibilité les nouvelles capacités de Generative Fill alimenté par Firefly Image 4, capable de produire des sorties en résolution 2K. Pour les créatifs travaillant sur des projets à forte densité visuelle — habillage de marque, conception de pochette d'album, direction artistique de campagnes —, l'intégration réduit concrètement le temps entre une idée et son incarnation dans un fichier livrable.
Note éditoriale
Ce que Adobe appelle "workflow bidirectionnel" est une réponse à un problème réel dans la pratique des studios et des indépendants : la rupture entre le moment de l'exploration (rapide, génératif, peu précis) et celui de la finition (lent, manuel, précis au pixel). Les outils génératifs existaient déjà ; ce qui manquait, c'était leur continuité avec le fichier de travail. C'est cette couture-là que Photoshop 27.5 tente de réaliser.
Il est trop tôt pour savoir si Firefly Boards s'impose comme un espace d'idéation légitime dans les workflows professionnels, ou s'il reste un terrain d'expérimentation que les créatifs visitent pour revenir ensuite à leurs habitudes de référence. La résistance des métiers créatifs aux outils génératifs ne tient pas à l'ergonomie — elle tient souvent à une question de propriété du geste : qui a fait quoi, et comment l'expliquer au client, au directeur artistique, au jury ?
Adobe a compris depuis plusieurs trimestres que la bataille n'est pas celle de la qualité de la génération — tous les acteurs convergent — mais celle de l'intégration dans le flux existant. Photoshop reste le logiciel de référence pour une proportion massive des créatifs professionnels mondiaux. En faisant entrer Firefly Boards dans Photoshop plutôt que l'inverse, Adobe joue la carte de la continuité plutôt que de la disruption. C'est probablement la bonne stratégie — et la moins visible à court terme.
Des chercheurs de l'Université de Swansea ont publié en mars 2026 dans la revue ACM Transactions on Interactive Intelligent Systems les résultats d'une étude conduite auprès de plus de 800 participants invités à concevoir des véhicules dans un environnement virtuel. Un groupe de participants avait accès à une galerie générative produite par un algorithme MAP-Elites, présentant un large spectre de propositions — designs performants, idées inhabituelles, et certaines délibérément imparfaites — tandis que l'autre groupe travaillait sans assistance. Les résultats indiquent que les participants exposés à la galerie IA ont passé significativement plus de temps sur la tâche, ont produit des designs évalués comme supérieurs, et ont déclaré un niveau d'engagement plus élevé que ceux travaillant seuls. Les chercheurs notent que les métriques habituellement utilisées pour évaluer l'adoption de l'IA dans les processus créatifs — taux de clic sur les suggestions, taux de copie — ne capturent pas les effets les plus importants de l'outil sur la pensée, l'émotion et la disposition à explorer. L'étude plaide pour une évaluation plus large de l'impact des systèmes génératifs sur la qualité de l'exploration créative humaine, au-delà de la seule mesure du degré d'adoption des suggestions proposées.
Note éditoriale
Ce que cette étude mesure avec soin, elle l'interprète avec une prudence bienvenue. Les participants exposés aux galeries IA ont produit de "meilleurs" designs — mais meilleurs selon quels critères, définis par qui, appliqués à quel type de production ? Dans un cadre expérimental de conception de véhicules virtuels, la question reste ouverte. Ce qui est vrai pour le design fonctionnel n'est pas nécessairement vrai pour la création artistique, où l'originalité n'est pas toujours mesurable, et où "passer plus de temps" peut signifier aussi bien une exploration féconde qu'une hésitation stérile.
La critique la plus intéressante que les chercheurs adressent à leur propre domaine concerne les métriques : évaluer l'impact de l'IA créative sur la base des clics et des copies, c'est mesurer l'adoption d'un outil, pas son effet sur la pensée. L'idée qu'un outil puisse modifier la qualité de l'exploration mentale sans que le créatif ne reprenne aucune suggestion directement — c'est précisément ce que l'observation superficielle des comportements ne peut pas voir. Cette remarque vaut bien au-delà du cas étudié.
Il reste une question que l'étude ne pose pas, et qui est peut-être la plus importante : que se passe-t-il quand les galeries IA proposées à tous les créatifs proviennent des mêmes modèles, entraînés sur les mêmes corpus, produisant la même distribution statistique d'idées ? La diversité des galeries génère de la diversité des outputs humains — à condition que les galeries elles-mêmes soient diverses. Si la convergence des modèles produit des galeries similaires à l'échelle mondiale, l'effet amplificateur sur la créativité pourrait s'inverser en effet standardisant.