IA Bulletin — 18 avril 2026

Veo 4 et la vidéo longue en 4K /
Kling et Runway dans la trace de Sora /
Voix captée au cœur de Suno 5.5

Google Veo 4 : trente secondes en 4K, storyboarding et personnages qui tiennent la route

Le 17 avril 2026, Google a officialisé Veo 4, quatrième génération de son modèle texte-vers-vidéo, après des semaines de rumeurs autour d'une réponse à la fermeture de Sora. Le modèle porte la durée maximale à 30 secondes par génération, la résolution native à 4K, et introduit un mode storyboarding qui enchaîne des plans successifs en préservant les décors, les personnages et les conditions lumineuses — un chantier qui hantait toutes les IA vidéo depuis deux ans. Une fonction de création zéro-shot d'avatar permet de générer un personnage cohérent à partir d'une seule image de référence, puis de le faire jouer dans plusieurs scènes sans glissement morphologique. Veo 4 s'intègre à Google Flow et à Gemini Ultra sur les abonnements payants, tandis que les utilisateurs gratuits gardent l'accès à Veo 3.1 via Google Vids, ce qui aligne la direction artistique d'une sortie musicale ou d'une capsule visuelle sur un pipeline désormais unifié. Le calendrier est éloquent : trois semaines après la fermeture annoncée de Sora, Google rafle le terrain que le modèle d'OpenAI prétendait occuper.

Note éditoriale

La durée et la 4K sont les chiffres qui titrent, mais l'information la plus lourde est le storyboarding. Jusqu'ici, toute narration vidéo générée par IA reposait sur un assemblage manuel de plans disjoints — un monteur collait, un coloriste rattrapait. En internalisant la cohérence inter-plans, Veo 4 rapproche la génération d'une logique de tournage plutôt que d'une logique d'image animée.

Ce basculement déplace la valeur. Tant que chaque plan était isolé, la signature narrative restait humaine : c'est le monteur qui racontait. Dès que la machine tient un fil, la question devient : le prompt suffit-il à définir une intention, ou faut-il toujours un regard qui choisit et resserre ? Pour l'instant, il faut toujours ce regard — et probablement pour longtemps.

Sources : Veo3AI — Veo 4 Release April 2026Digital Applied — AI Video Market After Sora
What ever happened to alain — Studio Takuya
Supernova — Studio Takuya

Kling et Runway récupèrent les orphelins de Sora : le marché vidéo se recompose

Trois semaines après l'annonce par OpenAI de la fermeture programmée de Sora — le 26 avril 2026 pour l'application, septembre pour l'API — le marché de la génération vidéo se restructure à un rythme qui surprend même ses acteurs. Kling AI (Kuaishou) affiche une hausse de 4 % de ses utilisateurs actifs hebdomadaires, portant la moyenne à 2,6 millions, tandis que RunwayML et Vidu captent une part équivalente d'utilisateurs professionnels migrant depuis Sora. Les raisons de la chute de Sora sont désormais documentées : selon des notes internes, l'application brûlait jusqu'à 4,2 millions de dollars par jour en compute GPU pour seulement 2,1 millions de revenus totaux sur toute sa durée de vie, et Disney a suspendu sa prise de participation d'un milliard de dollars. Kling a enchaîné cinq versions majeures en un an — 1.5, 1.6, 2.0, 2.5, 2.6 — chacune apportant des gains mesurables, pendant que Runway déployait Gen-4 et Gen-4.5 avec une intégration native dans Adobe Firefly. Le paysage qui se dessine n'est plus un duel mais un marché fragmenté, où chaque outil vise un cas d'usage précis — film publicitaire court chez Runway, contenus social-first chez Kling, scénographie visuelle d'un album ou clip musical chez les deux.

Note éditoriale

La disparition de Sora est un cas d'école. Un produit technologiquement remarquable, un buzz monumental, un partenariat Disney — et pourtant l'économie unitaire ne tenait pas. Quatre dollars par minute générée, ça ne se rattrape pas avec un abonnement Plus.

Le marché se rééquilibre sur des acteurs qui ont abordé la vidéo IA comme une discipline d'ingénierie produit, pas comme une démonstration de force. Kling et Runway n'ont pas gagné parce qu'ils sont meilleurs — ils ont gagné parce qu'ils ont itéré. Cinq versions en douze mois, c'est une cadence de laboratoire : chaque version répare une faiblesse, chaque retour utilisateur alimente la suivante. Le modèle Sora voulait trop prouver, trop vite.

Sources : Bloomberg — Kling, Runway, Vidu remplacent SoraVariety — OpenAI shutting down Sora

Suno 5.5 et la voix captée : l'empreinte vocale comme signature d'un morceau

Suno a déployé la version 5.5 de son modèle de génération musicale, centrée sur une fonction attendue depuis plusieurs mois : Voices, un outil de capture de voix qui permet à l'utilisateur d'enregistrer ou d'importer un extrait chanté pour que le modèle en extraie l'identité vocale et l'intègre aux titres générés. Deux outils de personnalisation complètent la mise à jour — un profil de préférences musicales et un système de direction stylistique affinée — avec pour cible les créateurs professionnels qui utilisent Suno en complément d'un studio plutôt qu'en remplacement. L'entreprise annonce un revenu récurrent annuel de 300 millions de dollars, près de cent fois supérieur à celui d'Udio, ce qui la place en position dominante avant les échéances juridiques. Parallèlement, dans le cadre de son accord avec Warner Music Group, Suno prépare une nouvelle version du modèle entraînée exclusivement sur des données licenciées, qui remplacera l'ancienne — les utilisateurs gratuits perdront les téléchargements, les payants verront des plafonds apparaître. L'enjeu éditorial est clair : donner à chaque créateur une voix signée, pas une voix générique, condition sine qua non pour que l'outil se glisse dans un travail d'auteur plutôt que dans un moulin à slop.

Note éditoriale

La voix captée est le tournant conceptuel le plus intéressant du trimestre. Jusqu'à présent, générer une chanson en IA revenait à choisir parmi des timbres interchangeables — un catalogue de voix anonymes. La bascule vers une voix qui appartient à l'utilisateur déplace la question de la propriété intellectuelle vers celle de l'identité sonore.

Pour un musicien, ce n'est pas anodin. Une chanteuse peut désormais se cloner et produire à trois heures du matin ; un beatmaker peut demander à son chanteur d'enregistrer trente secondes pour que Suno lui livre un refrain dans sa voix. Le risque moral est évident — mais l'usage légitime l'est tout autant. L'outil n'est ni bon ni mauvais, il exige seulement qu'on sache ce qu'on fait avec.

Sources : Music Business Worldwide — Suno v5.5 VoicesBillboard — Suno × Warner licensing deal