Un projet, deux façons de le faire
Neurobossa est un album de jazz électronique hybride — bossa nova réinterprétée à travers des traitements numériques, des synthétiseurs analogiques et une esthétique visuelle empruntant autant au graphisme des années 1960 qu'au minimalisme contemporain. Le brief initial était précis : une image forte, lisible en miniature sur les plateformes de streaming, qui signale immédiatement l'appartenance au jazz sans tomber dans les codes visuels éculés du genre. Résultat attendu en moins d'une semaine. La formation IA créative de Takuya Studio documente ce type de cas réels pour montrer ce que le workflow assisté par IA change concrètement — et ce qu'il ne change pas.
Le brief : ce qui est décidé avant tout
Avant de lancer le moindre outil, un brief visuel a été établi à partir des échanges avec l'artiste. Ce brief contient les éléments qui ne peuvent pas être délégués à l'IA et qui conditionnent toute la suite : la direction stylistique (gravure, noir et blanc, contraste maximal), le format de destination (carré 3000×3000 px pour le streaming, format vinyle 12" en bonus), les contraintes typographiques (condensed bold, sans empattement), et le niveau de complexité acceptable de l'image (une figure centrale, pas de composition surchargée).
Ce travail préalable est celui qui dure le plus longtemps dans un workflow IA bien conduit. Non pas parce qu'il est difficile — il l'est dans les deux approches — mais parce qu'il détermine à quelle vitesse les iterations suivantes convergent vers quelque chose de juste.
La session de prompting — étape par étape
- 0 h 00 Prompt de départ (exploratoire) — formulation large, teste la direction générale. Objectif : voir si le modèle comprend l'univers de référence.
- 0 h 20 Sélection et affinage — parmi les 16 variations initiales, 3 retenues. Ajout de paramètres de style, modification du ratio, introduction de contraintes de texture.
- 0 h 50 Variations ciblées (--vary) — sur la direction retenue, générer 8 déclinaisons avec modification légère de la composition et du traitement du grain.
- 1 h 30 Choix final et upscaling — sélection de l'image retenue, upscale haute résolution, export brut vers Photoshop.
- 1 h 45 Retouche Photoshop — ajustement des niveaux, renforcement du contraste, correction des artefacts sur les bords, recadrage précis au format carré.
- 2 h 30 Typographie — intégration du nom d'artiste et du titre album. Police condensed, gestion de la lisibilité sur fond chargé, test sur maquette smartphone.
- 3 h 15 Validation format streaming — test sur maquettes Spotify et Apple Music. Corrections mineures sur le poids visuel du titre.
- 4 h 00 Livraison — export JPEG 3000×3000 px, PNG avec fond transparent (version réseaux sociaux), PDF pour le format vinyle.
Les prompts utilisés — ce qui a fonctionné
Le premier prompt exploratoire visait la direction stylistique sans trop contraindre la composition. Un prompt de départ trop précis sur la composition génère souvent des images rigides qui n'ont pas la qualité d'improvisation qu'on cherche dans un premier temps.
À partir des résultats, la direction "gravure" a été confirmée. Le prompt a été affiné pour intégrer des contraintes stylistiques plus précises, notamment sur le grain et la qualité du contraste :
Le paramètre --chaos 10 introduit une légère variabilité dans les compositions générées — suffisante pour produire des alternatives intéressantes sans perdre la direction stylistique établie. C'est l'un des paramètres Midjourney les plus utiles en phase d'exploration, et l'un des moins bien documentés pour les débutants.
Ce que le workflow IA n'a pas résolu
Trois points ont nécessité un travail entièrement manuel, impossible à déléguer à l'outil :
D'abord, la typographie. Midjourney génère du texte avec une fiabilité désastreuse — les lettres sont souvent incorrectes, les mots déformés, la lisibilité inexistante. Toute la composition typographique a été réalisée sous Photoshop, indépendamment du visuel généré.
Ensuite, les artefacts de bord. Les modèles de génération produisent régulièrement des zones de tension visuelle aux extrémités de l'image — des zones où la composition "se perd" parce que le modèle n'a pas été entraîné à penser en termes de cadrage strict. Une retouche manuelle sur ces zones est systématiquement nécessaire.
Enfin, le test à petite taille. Aucun modèle IA ne peut anticiper comment une image se comportera en miniature de 60×60 pixels sur une interface de streaming. Ce jugement — ajuster le contraste, simplifier un détail qui devient illisible, déplacer légèrement le titre — reste entièrement humain.
Ce que ce cas démontre
Le workflow assisté par IA sur Neurobossa a produit un résultat en quatre heures qui, dans un workflow entièrement manuel, aurait mobilisé deux à trois jours. Ce n'est pas une approximation : c'est une estimation basée sur des projets comparables menés avec les deux approches sur la même période.
Ce que ce cas ne démontre pas, c'est que l'IA suffit. Chaque étape du workflow a nécessité des décisions qui n'appartiennent pas au modèle : le choix de la direction stylistique avant tout, la sélection dans le volume de propositions générées, la retouche, la typographie, le test de destination. Un œil non formé — et plus encore, un œil sans culture visuelle du jazz — n'aurait pas produit le même résultat avec les mêmes outils. L'outil amplifie ce qu'on lui apporte. Il ne le remplace pas.
La méthodologie complète utilisée pour ce projet — structure du brief visuel, architecture du prompt, paramètres Midjourney avancés, retouche ciblée — est enseignée dans le module dédié à la formation à l'IA créative de Takuya Studio.
Takuya Studio propose des sessions individuelles et des ateliers groupe sur la création visuelle assistée par IA. Réserver une session de formation.