IA Bulletin — 2 avril 2026

Lyria 3 Pro pour Gemini /
Melody Flip pour les studios /
ACE-Step 1.5 pour tous les autres

Lyria 3 Pro : Google compose la chanson par structure, depuis Gemini jusqu'à Artlist

Google a déployé Lyria 3 Pro le 25 mars 2026 dans l'application Gemini, étendant ses capacités de génération musicale bien au-delà des 30 secondes permises par la version précédente. Le modèle peut désormais produire des morceaux jusqu'à 3 minutes, en comprenant la structure compositionnelle — intro, couplet, refrain, pont — et en les articulant à la demande de l'utilisateur. L'accès est réservé aux abonnés payants de Gemini, tandis que les versions Vertex AI et Google AI Studio permettent aux développeurs et aux créatifs professionnels d'intégrer le modèle dans leurs propres workflows. La plateforme Artlist a été parmi les premières à intégrer Lyria 3 Pro, permettant à ses utilisateurs de générer des titres commercialisables à partir de prompts texte ou de jusqu'à dix images, couvrant ainsi le marché de la musique de synchronisation pour la production vidéo, audiovisuelle et les projets discographiques indépendants. L'ensemble des productions générées dans Gemini est marqué par SynthID, la signature acoustique imperceptible de Google qui permet d'identifier un contenu IA même après compression ou conversion de format.

Note éditoriale

L'entrée de Lyria 3 Pro dans la structure compositionnelle est un déplacement significatif. Générer 30 secondes d'ambiance ou de fond sonore, c'est une chose — le marché pour cela est large et peu contesté. Générer un couplet, un refrain, un pont avec une cohérence de style maintenue sur 3 minutes, c'en est une autre : cela engage directement le territoire de la composition, pas seulement celui de la génération de texture.

L'intégration dans Artlist est intéressante parce qu'elle déplace le débat du terrain esthétique vers le terrain économique. Artlist est une bibliothèque musicale commerciale avec des licences, des tarifs, des clients en production vidéo. Ce que Lyria 3 Pro y fait, c'est s'insérer dans un flux économique déjà constitué — pas dans le champ expérimental. La question n'est pas "est-ce que ça sonne bien" mais "est-ce que ça déplace des compositeurs qui vivaient de la synchronisation". La réponse est sans doute oui.

Le marquage SynthID mérite une remarque à part. C'est une décision cohérente de la part de Google, mais elle soulève aussi une question de fond : qui a intérêt à ce que le marquage soit imperceptible plutôt qu'explicite ? La réponse n'est pas l'auditeur.

Source : Google DeepMind Blog — Lyria 3 Pro
Figure — Studio Takuya
Figure — Studio Takuya

Melody Flip : Roland et Sony CSL dissèquent votre audio pour en extraire des mélodies nouvelles

Roland Corporation a présenté Melody Flip le 18 mars 2026, un logiciel de génération mélodique conçu en collaboration avec les Sony Computer Science Laboratories, marquant la première incursion du fabricant d'instruments dans le domaine de l'IA générative. L'outil fonctionne en deux temps : l'utilisateur importe un fichier audio existant, que Melody Flip analyse pour en extraire l'ADN musical — tempo, tonalité, gamme, progression d'accords, genre et ambiance — avant de générer des idées mélodiques nouvelles construites à partir de cette analyse. La génération s'appuie sur une bibliothèque de 300 palettes créatives couvrant des styles et des directions tonales variés, que l'utilisateur peut filtrer et combiner pour orienter le résultat vers l'esthétique souhaitée. Le logiciel fonctionne comme un plugin dans n'importe quelle DAW compatible Mac et PC, exporte ses productions à la fois en audio et en MIDI, et peut générer non seulement des lignes mélodiques mais aussi des progressions d'accords, des lignes de basse et des parties rythmiques. Un essai gratuit est prévu pour mai 2026, avant une distribution via Roland Cloud dont les tarifs définitifs n'ont pas encore été communiqués.

Note éditoriale

Ce qui est intéressant dans Melody Flip, c'est moins la technologie que la posture. Roland a soigneusement évité le discours de la "création automatisée" — l'outil se présente explicitement comme un outil d'inspiration, pas de remplacement. Le mot "co-écrivain" revient dans leur communication, avec un soin manifeste pour ne pas froisser une base d'utilisateurs qui sont, par définition, des musiciens.

L'origine Sony CSL ajoute une couche de crédibilité non négligeable. Sony CSL Paris est le laboratoire d'où est sorti Flow Machines, l'outil utilisé pour composer "Daddy's Car" en 2016, premier morceau co-écrit par IA à avoir obtenu une visibilité grand public. Dix ans plus tard, la même chaîne de compétences aboutit à un plugin grand public chez Roland. Ce n'est pas une révolution — c'est une intégration silencieuse, ce qui est souvent plus durable.

Le vrai test sera dans l'usage. Une bibliothèque de 300 palettes, c'est à la fois beaucoup et très peu selon la façon dont elles sont conçues. Si les palettes sont des raccourcis vers des clichés de genre, Melody Flip produira des idées attendues. Si elles sont des vecteurs d'hybridation stylistique inattendue, l'outil peut devenir un outil de déstabilisation créative au sens positif du terme.

Source : Roland Corporation — communiqué de presse

ACE-Step 1.5 : un modèle musical open source qui surpasse Suno, sur votre machine, sans abonnement

ACE-Step 1.5, développé conjointement par ACE Studio et StepFun, est un modèle de génération musicale en source ouverte qui surpasse Suno v5 sur le benchmark SongEval, indice de référence pour l'évaluation globale de la qualité musicale générée par IA, selon les évaluations publiées par les auteurs. Le modèle génère un morceau complet en moins de 10 secondes sur un GPU grand public (RTX 3090) et en moins de 2 secondes sur un A100, tout en fonctionnant avec moins de 4 Go de VRAM — un seuil accessible à la grande majorité des configurations de production actuelles. L'architecture repose sur un modèle de langage (de 0,6 à 4 milliards de paramètres) agissant comme planificateur en mode Chain-of-Thought, qui transforme un prompt simple en plan musical complet incluant descripteurs de style, paroles et métadonnées d'arrangement, avant de transmettre ce plan à un diffuser audio. Le modèle supporte un fine-tuning par LoRA permettant de l'entraîner sur un catalogue personnel ou un corpus stylistique restreint, ouvrant la voie à une personnalisation profonde sans infrastructure cloud. L'ensemble du code, des poids et de la documentation est accessible librement sur GitHub et Hugging Face, sous une licence autorisant les usages commerciaux.

Note éditoriale

Il existe désormais un modèle de génération musicale open source, tournant localement, qui surpasse la plateforme commerciale la plus connue du marché. Ce fait, pris seul, dit quelque chose sur le rythme de la démocratisation dans ce domaine — et sur le délai de plus en plus court entre une publication académique et une capacité praticable sur une configuration standard.

Ce qui change concrètement pour un créatif : la chaîne complète — génération, personnalisation par LoRA, export — peut se faire sans passer par une API tierce, sans abonnement, sans envoyer ses données à un serveur extérieur. L'argument de la souveraineté des données, longtemps théorique dans la musique IA, commence à être un argument praticable. C'est une distinction qui compte, notamment pour les artistes travaillant sur des projets non encore publiés.

La question qui demeure est celle de la direction. ACE-Step 1.5 peut générer un morceau complet depuis un prompt, mais la qualité du résultat reste déterminée par la précision de la demande et la culture de celui qui la formule. L'outil est puissant ; la question de qui le dirige, avec quelle culture et vers quelle vision, reste entière — comme pour tous ses équivalents commerciaux.

Source : ACE-Step — GitHub

Le IA Bulletin est réalisé avec l'assistance de l'IA Claude de la société Anthropic.