Le 8 avril 2026, le Sénat français a adopté à l'unanimité, en première lecture, une proposition de loi instaurant une présomption d'utilisation des contenus culturels par les fournisseurs d'IA. Portée par la sénatrice Laure Darcos (Horizons, Essonne), la loi opère un renversement de la charge de la preuve : jusqu'ici, les artistes, musiciens, écrivains et créateurs devaient démontrer que leurs œuvres avaient été utilisées pour entraîner un modèle — une preuve quasi impossible à apporter face à des corpus d'entraînement opaques et massifs. Désormais, ce sont les fournisseurs d'IA qui devront justifier ne pas avoir utilisé ces œuvres. Le texte a été soumis à l'avis du Conseil d'État le 19 mars 2026, qui a jugé le mécanisme compatible avec les principes constitutionnels, sous réserve de quelques ajustements de rédaction. Il doit à présent être examiné par l'Assemblée nationale, étape que la sénatrice elle-même décrit comme «plus compliquée». La Sacem a salué le vote.
Note éditoriale
Le renversement de la charge de la preuve est, juridiquement, une manœuvre d'une portée considérable. Ce mécanisme existe déjà dans d'autres domaines du droit — discrimination à l'embauche, harcèlement moral, concurrence déloyale — précisément parce que la partie lésée ne dispose structurellement pas des moyens de prouver ce que l'autre partie peut dissimuler. Appliqué à l'IA générative, il reconnaît implicitement que l'opacité des corpus d'entraînement est un problème structurel, et non un aléa technique. C'est une prise de position rare de la part d'une institution législative.
La question qui reste ouverte est celle de l'applicabilité réelle. Une présomption légale en France ne lie pas Google, OpenAI ou Stability AI — des entités américaines dont les modèles sont entraînés hors du territoire français, parfois hors de l'Union européenne. Le texte devra s'articuler avec le cadre de l'IA Act européen et les discussions en cours à Bruxelles sur la transparence des données d'entraînement. Le risque est celui d'une loi symbolique : forte sur le plan rhétorique, difficile à faire valoir dans les tribunaux face à des adversaires qui opèrent à une autre échelle et dans une autre juridiction.
Reste que le signal politique est net. La France choisit de ne pas attendre l'Europe pour poser un marqueur. Et l'unanimité du vote au Sénat — droite et gauche confondues — indique que la protection des œuvres culturelles face à l'extraction algorithmique n'est pas, pour l'instant, un sujet clivant. C'est probablement son atout le plus solide.
Le 10 avril 2026, MiniMax a publié Music 2.6, une mise à jour majeure de son modèle de génération musicale, centrée sur une fonctionnalité jusqu'ici inédite dans ce domaine : le Cover. Le principe est le suivant — l'utilisateur soumet une pièce audio, le modèle en extrait le squelette mélodique, et laisse ensuite définir librement tout ce qui l'entoure : style (du folk au métal en passant par l'électronique), arrangement, instrumentation, et même les paroles. La mélodie d'origine est préservée avec précision — MiniMax parle de «Melody Preservation» — tandis que le contexte sonore est entièrement reconstruit. La latence initiale de génération a été réduite à moins de vingt secondes, et le modèle prend désormais en charge plus de cent instruments. Dans le même temps, MiniMax a publié en open source trois MusicSkills destinés aux agents IA : minimax-music-gen2 (génération musicale pour musiciens), minimax-music-playlist (générateur de playlists personnalisées) et buddy-sings (chanteur de type mascotte). Ces modules sont conçus pour s'intégrer dans des workflows d'agents autonomes. La fonctionnalité Cover constitue un positionnement clair vers la production assistée professionnelle — notamment pour l'identité visuelle et sonore d'un disque ou d'une campagne, où le brief impose une mélodie existante tout en laissant ouverte la direction de style.
Note éditoriale
La génération musicale par IA a longtemps souffert d'un défaut structurel : elle produisait des résultats complets — mélodie, harmonie, rythme, timbre — sans permettre de contraindre un seul paramètre. Donner une mélodie à un modèle revenait à espérer qu'il la retrouve par hasard. Music 2.6 rompt avec cette logique en séparant explicitement ce qui est fixé de ce qui est libre. C'est un déplacement conceptuel autant que technique.
Ce glissement est important pour les praticiens. Un compositeur ou un directeur artistique qui travaille avec une mélodie imposée — thème d'une marque, leitmotiv d'une série, tube existant à réarranger — n'a plus besoin de partir de zéro ni de multiplier les tentatives sur un modèle aveugle. Il peut désormais tester des mondes sonores différents sur une structure mélodique fixe. C'est moins une automatisation de la création qu'un outil de direction artistique : on définit la contrainte, on explore l'espace autour d'elle.
L'open source des trois MusicSkills est une autre pièce du tableau. MiniMax construit un écosystème d'agents musicaux — des briques réutilisables que des développeurs peuvent assembler dans des workflows autonomes. La production musicale distribuée, où chaque étape est gérée par un agent spécialisé, n'est plus une spéculation. Elle arrive, par fragments, via des dépôts GitHub.
Le 12 avril 2026, MiniMax a rendu publics les poids de son modèle M2.7, un Mixture-of-Experts de 229 milliards de paramètres conçu autour de capacités agentiques avancées. M2.7 est présenté comme le premier modèle à avoir participé à sa propre phase d'entraînement de manière substantielle : chargé d'optimiser un scaffold d'évaluation interne, il a exécuté en totale autonomie plus de cent itérations d'un cycle d'auto-amélioration — analyser les trajectoires d'échec, planifier des modifications, les appliquer au code du scaffold, relancer les évaluations, comparer les résultats, décider de conserver ou réverter. Au terme de ce processus, les performances sur les ensembles d'évaluation internes avaient progressé de 30 %. Sur les benchmarks publics, M2.7 atteint 56,22 % de réussite sur SWE-Pro (couverture multi-langages) et 57 % sur Terminal Bench 2, deux mesures exigeant une compréhension fine des systèmes. Les poids sont disponibles sur Hugging Face via NVIDIA, et MiniMax a également publié OpenRoom, une interface de démonstration des capacités multi-agents du modèle.
Note éditoriale
L'auto-amélioration des modèles IA est un sujet sur lequel circulent depuis plusieurs années des formulations aussi grandioses qu'imprécises — «AGI», «récursion», «singularité». Ce que décrit MiniMax est plus modeste et, précisément pour cela, plus intéressant : un modèle chargé d'optimiser un scaffold d'évaluation, opérant dans un espace contraint et avec un objectif défini. Ce n'est pas un modèle qui se réécrit lui-même librement — c'est un agent qui explore un espace de décision restreint et mémorise ce qui fonctionne. La différence est décisive.
Ce qui mérite attention, c'est que cette capacité arrive avec l'open source. Un modèle de 229 milliards de paramètres capable de workflows agentiques complexes et disponible avec ses poids est, pour les équipes qui ont les moyens de l'héberger, un accélérateur structurel. La question n'est plus «est-ce que les grands labs peuvent faire ça ?» mais «qui d'autre peut maintenant le faire ?».
Pour les créatifs qui travaillent avec des outils IA — génération d'images, composition musicale, post-production — M2.7 est moins un outil direct qu'un signal : les pipelines d'agents qui orchestrent plusieurs modèles spécialisés en séquence vont se démocratiser rapidement. Ce que Music 2.6 fait pour la musique en fragmentant la tâche (extraire la mélodie, réarranger le reste), M2.7 le formalise pour n'importe quel workflow complexe.