HappyHorse 1.0 : le dark horse d’Alibaba prend la tête du classement texte-vers-vidéo
Apparu anonymement sur les leaderboards le 7 avril, le modèle vidéo HappyHorse 1.0 s’est hissé en tête du classement Artificial Analysis avec 1389 points Elo, devançant Dreamina Seedance 2.0 de près de 115 points. Le 10 avril, Alibaba a levé l’anonymat et confirmé la paternité du modèle, sorti du Taotian Future Life Lab dirigé par Zhang Di, l’ancien vice-président de Kuaishou et père du projet Kling. Le modèle combine dans un même Transformer 15 milliards de paramètres les quatre modalités — texte-vers-vidéo, image-vers-vidéo, avec ou sans audio natif — sort en 1080p et gère la synchronisation labiale multilingue. L’accès API est annoncé pour le 30 avril, via le nouvel Alibaba Token Hub, et l’outil restera en bêta fermée pendant plusieurs semaines avant l’ouverture grand public. Pour un créatif qui calibre un univers visuel d’une sortie musicale, la disponibilité d’un moteur vidéo chinois en tête du classement change déjà les arbitrages d’outil par pipeline.
Le timing fait signal autant que le résultat. Quatre mois après que Zhang Di a quitté Kuaishou pour Alibaba, son équipe livre un modèle qui bat Seedance 2.0 sur son terrain. L’histoire de la vidéo IA se rejoue en interne à Pékin : chaque laboratoire chinois clone son propre talent pour ensuite le redéployer ailleurs.
La vraie information n’est pas l’Elo. C’est la vitesse de cadence : HappyHorse est arrivé avant sa propre démo publique, avant même que l’API existe. Les laboratoires chinois testent désormais leur modèle sur le terrain réel avant toute communication, ce qui comprime le cycle de presse à l’extrême. En occident, on prend encore le temps d’écrire un blog post.