IA Bulletin — 20 avril 2026

HappyHorse 1.0 et la vidéo IA chinoise en tête /
Seedance 2.0 et le contrôle caméra de réalisateur /
ElevenMusic sur iOS

HappyHorse 1.0 : le dark horse d’Alibaba prend la tête du classement texte-vers-vidéo

Apparu anonymement sur les leaderboards le 7 avril, le modèle vidéo HappyHorse 1.0 s’est hissé en tête du classement Artificial Analysis avec 1389 points Elo, devançant Dreamina Seedance 2.0 de près de 115 points. Le 10 avril, Alibaba a levé l’anonymat et confirmé la paternité du modèle, sorti du Taotian Future Life Lab dirigé par Zhang Di, l’ancien vice-président de Kuaishou et père du projet Kling. Le modèle combine dans un même Transformer 15 milliards de paramètres les quatre modalités — texte-vers-vidéo, image-vers-vidéo, avec ou sans audio natif — sort en 1080p et gère la synchronisation labiale multilingue. L’accès API est annoncé pour le 30 avril, via le nouvel Alibaba Token Hub, et l’outil restera en bêta fermée pendant plusieurs semaines avant l’ouverture grand public. Pour un créatif qui calibre un univers visuel d’une sortie musicale, la disponibilité d’un moteur vidéo chinois en tête du classement change déjà les arbitrages d’outil par pipeline.

Note éditoriale

Le timing fait signal autant que le résultat. Quatre mois après que Zhang Di a quitté Kuaishou pour Alibaba, son équipe livre un modèle qui bat Seedance 2.0 sur son terrain. L’histoire de la vidéo IA se rejoue en interne à Pékin : chaque laboratoire chinois clone son propre talent pour ensuite le redéployer ailleurs.

La vraie information n’est pas l’Elo. C’est la vitesse de cadence : HappyHorse est arrivé avant sa propre démo publique, avant même que l’API existe. Les laboratoires chinois testent désormais leur modèle sur le terrain réel avant toute communication, ce qui comprime le cycle de presse à l’extrême. En occident, on prend encore le temps d’écrire un blog post.

Sources : CNBC — Alibaba unmasks HappyHorse 1.0South China Morning Post — HappyHorse tops Seedancefal.ai — What we know about HappyHorse 1.0

Seedance 2.0 : ByteDance livre le son natif et le contrôle caméra de réalisateur

Le 9 avril, ByteDance a officialisé la sortie de Seedance 2.0, disponible sur Dreamina, sur CapCut, via API et sur fal.ai dès le jour même. Le modèle accepte en entrée du texte, de l’image, de l’audio et de la vidéo, propose des endpoints texte-vers-vidéo, image-vers-vidéo et référence-vers-vidéo, et livre un score Elo de 1351 sur le classement image-vers-vidéo — au-dessus de Veo 3, Sora 2 et Runway Gen-4.5 au moment du lancement. La rupture de cette version, c’est la sortie audio native synchronisée avec l’image et un système de contrôle caméra type réalisateur qui gère travellings, plans fixes, contre-plongées et coupes avec un vocabulaire de plateau. Le modèle est désormais disponible dans plus de 100 pays, mais l’exclusion des États-Unis de cette liste a créé un moment de flottement dans l’industrie — à la fois pour la communication de ByteDance et pour les studios américains qui utilisaient déjà Dreamina via VPN. Pour un artiste qui pense une pièce vidéo d’album comme une composition de plateau plutôt qu’un montage de plans IA, Seedance 2.0 devient le premier outil où la direction technique reste entre les mains du créateur.

Note éditoriale

Le contrôle caméra est plus important que le son natif. L’audio natif existe déjà chez Sora 2 et chez Veo 4 — c’est devenu un standard. Mais donner au prompt un vocabulaire de réalisateur (travelling avant, plan poitrine, dolly zoom) change la nature du travail : on ne décrit plus une scène, on met en scène une cadence.

Ce basculement déplace la compétence. Un prompteur pur qui écrit par mots-clés aura du mal à exploiter un modèle qui attend une grammaire de tournage. Le métier revient à celui de l’assistant réalisateur qui sait nommer les plans — avec l’avantage que la machine ne fatigue pas.

Sources : ByteDance Seed — Official Launch of Seedance 2.0fal.ai — Seedance 2.0 APITechCrunch — Seedance 2.0 in CapCut

ElevenMusic : ElevenLabs fait entrer la génération musicale dans l’iPhone

Le 1er avril, ElevenLabs a lancé ElevenMusic, une application iOS dédiée à la génération de musique par IA — la première incursion grand public de l’entreprise dans un terrain jusque-là tenu par Suno et Udio. L’app est gratuite et permet de générer jusqu’à sept morceaux par jour à partir d’un prompt en langage naturel, avec un fil de découverte interne pour parcourir les créations d’autres utilisateurs. ElevenMusic s’appuie sur le moteur musical déjà exposé via l’API d’ElevenLabs et intègre les accords Warner et Merlin signés début 2026, ce qui libère l’usage commercial pour les créatifs qui travaillent une direction sonore de disque ou une piste de synchronisation. L’ergonomie s’inspire davantage de TikTok que de Suno Studio : création en une phrase, partage en un geste, pas de piano-roll ni de DAW. La stratégie est claire — occuper le mobile que Suno a négligé en concentrant ses efforts sur le navigateur et sur Suno Studio, et viser le public créateur de contenu court plutôt que le musicien d’album.

Note éditoriale

L’entrée d’ElevenLabs dans la musique sous forme d’application mobile reprend la stratégie de CapCut contre Adobe Premiere : prendre par le mobile ce que le concurrent verrouille par le desktop. Suno a choisi la profondeur, un DAW complet ; ElevenLabs prend la surface, sept morceaux par jour sans friction.

Pour un musicien professionnel, ces deux outils n’occupent pas le même poste. ElevenMusic génère des idées que l’on retravaille ensuite ailleurs — Suno produit des morceaux que l’on peut exploiter tels quels. L’un alimente le croquis, l’autre le livrable. Reste à voir lequel des deux captera l’attention des labels indépendants qui commencent à signer des artistes entièrement générés.

Sources : TechCrunch — ElevenLabs releases ElevenMusicElevenLabs — Changelog April 2026
23 — Studio Takuya
23 — Studio Takuya