IA Bulletin — 23 mars 2026

Encodage du style /
Génération du clip /
Sora aux millions

Adobe Firefly Custom Models : entraînez votre propre modèle IA sur vos propres visuels

Adobe ouvre en bêta publique les modèles personnalisés Firefly : il est désormais possible d'entraîner un modèle directement sur ses propres images pour en extraire un style, un personnage, une esthétique photographique précise. L'outil analyse les visuels fournis et produit un modèle aligné sur l'identité visuelle de l'artiste ou du studio.

Ces modèles rejoignent une plateforme qui en agrège désormais plus de trente, issus d'Adobe, Google (Veo 3.1), OpenAI, Runway (Gen-4.5) et Kling (2.5 Turbo). L'accès à ce catalogue unifié — image fixe, vidéo, styles personnalisés — se fait depuis un seul environnement, avec les outils habituels de la Creative Cloud.

Adobe Image Model 5, le modèle maison de nouvelle génération, passe simultanément en disponibilité générale. Le partenariat avec Runway, signé en décembre 2025, intègre désormais Gen-4.5 directement dans Firefly pour la génération vidéo.

Note éditoriale

Le modèle entraîné sur ses propres images — c'est l'aboutissement logique de ce qu'Adobe construisait depuis deux ans. Ce n'est plus un outil générique qu'on plie à son style : c'est son style encodé dans un modèle. Pour un directeur artistique ou un studio, la question n'est plus "est-ce que l'IA peut produire quelque chose dans mon univers ?" mais "combien de temps pour entraîner le modèle ?" L'écart entre outil et assistant personnel se referme vite.

Source : Adobe Blog
Bright future — Studio Takuya
Bright future — Studio Takuya

AutoMV : un système multi-agents open source qui tourne un clip complet depuis une chanson

Des chercheurs de la Queen Mary University of London publient AutoMV, le premier système open source capable de générer un clip vidéo complet depuis une chanson entière. Le système analyse la structure musicale, les beats et les paroles, puis confie la suite à deux agents spécialisés : un Scénariste et un Réalisateur, tous deux propulsés par des modèles Gemini.

Ces deux agents co-écrivent un découpage scène par scène, définissent les personnages et formulent des instructions de cadrage. La vidéo générée est synchronisée avec le rythme du morceau. Les évaluations par des experts humains montrent qu'AutoMV surpasse significativement les outils vidéo IA existants sur la cohérence narrative et la synchronisation musicale.

Le coût de production d'un clip passe ainsi de plusieurs dizaines de milliers d'euros à quelques centimes d'appel API. Le code est disponible sur GitHub sous licence libre, avec un article de recherche publié sur arXiv.

Note éditoriale

Ce qui est structurellement intéressant dans AutoMV, ce n'est pas la qualité du résultat — encore discutable — c'est l'architecture : deux agents avec des rôles distincts, scénariste et réalisateur, qui se parlent. Le clip vidéo comme produit d'une collaboration entre IA spécialisées, pas d'une seule boîte noire. Cette modularité est probablement la direction que prend toute la production créative assistée par IA. L'artiste indépendant qui ne pouvait pas payer un réalisateur commence à avoir un interlocuteur.

Source : EurekAlertm-a-p.ai

Sora intègre ChatGPT : la génération vidéo IA sort du cercle des initiés

OpenAI intègre Sora, son générateur vidéo, directement dans l'interface de ChatGPT. Jusqu'ici accessible via une application dédiée à un public restreint, Sora devient disponible pour des millions d'utilisateurs sans aucune étape d'inscription supplémentaire.

La génération vidéo rejoint ainsi les capacités conversationnelles, d'image et de code déjà disponibles dans ChatGPT — le tout depuis une interface unifiée, sans changer d'outil. Cette intégration place OpenAI dans une position de guichet unique pour la création assistée par IA, face à Adobe Firefly qui consolide la même stratégie côté professionnel.

Sora génère des vidéos jusqu'à 20 secondes en 1080p à partir d'un texte ou d'une image. La disponibilité varie selon les niveaux d'abonnement ChatGPT.

Note éditoriale

La vraie rupture ici n'est pas technique — Sora existait déjà. C'est la distribution : intégrer la vidéo dans une interface que des centaines de millions de personnes ouvrent chaque jour, c'est normaliser la génération vidéo aussi vite que l'image fixe s'est normalisée avec DALL-E. La courbe d'adoption ne sera pas progressive. Dans six mois, générer une vidéo courte sera aussi banal que générer une image. Le marché du contenu vidéo court en subit déjà les prémices.

Source : Crescendo AI News

Le IA Bulletin est réalisé avec l'assistance de l'IA Claude de la société Anthropic.