Nano Banana 2 dans Google Photos : l’image personnalisée devient un matériau Gemini
Annoncée le 16 avril sur le blog officiel, la bascule de Nano Banana 2 sur Personal Intelligence donne à Gemini un accès direct à la bibliothèque Google Photos de l’utilisateur, sans upload manuel ni prompt de référence préparé en amont. Le modèle — Gemini 3.1 Flash Image Preview sous le capot — s’appuie désormais sur les visages, les animaux et les lieux que l’utilisateur a étiquetés dans Photos, auxquels s’ajoute le contexte conversationnel accumulé. Une requête aussi simple que « imagine ma famille en claymation » ou « fais de moi un personnage façon Pixar » déclenche une sélection automatique d’images de référence, avec un bouton « Sources » qui trace le ou les fichiers utilisés. Le déploiement concerne en priorité les abonnés Google AI Plus, Pro et Ultra aux États-Unis, avec extension progressive à d’autres marchés et langues — l’Europe n’est pas encore incluse à cette date. Pour un directeur artistique qui construit la pochette d’album personnalisée d’un musicien, le geste n’est plus anecdotique : la photothèque du projet devient un pool prompt-ready, mobilisable en langage courant, sans préparer chaque fois un jeu de références ni rédiger une légende descriptive.
Le vrai basculement tient dans un seul mot : contexte. Jusqu’ici, la génération d’image travaillait à partir de prompts et, au mieux, d’une ou deux références uploadées à la main. Donner à un modèle l’accès à une bibliothèque entière change la nature du geste créatif : la référence visuelle n’est plus sélectionnée en amont, elle est choisie par le modèle à partir d’un corpus personnel.
Un second point mérite vigilance. Google a précisé que le modèle ne s’entraîne pas sur la photothèque privée, mais qu’il conserve prompts et réponses — le périmètre de ce qui reste à soi dans un système d’intelligence personnelle demande à être surveillé de près, surtout quand des collaborateurs externes y ajouteront leurs propres photothèques partagées.