Il y avait longtemps que je n’avais parlé de Photoshop. Et pour cause, les progrès de Lightroom Classic occupent toute mon attention. Mais ce soir j’ai mis à jour la dernière Beta de Photoshop pour tester dans Photoshop le fameux moteur “Nano Banana” de Google (Gemini 2.5) désormais disponible dans Photoshop (beta). Et bientôt dans Photoshop Standard… A ce moment, il vous concernera car l’impact de l’iA sur votre activité photo sera difficile à éviter… Exemple tout bête : tourner la tête de votre modèle de quelques centimètres : cela pourrait tout changer dans certains cas.
Il faut en effet savoir que Adobe à eu l’intelligence d’ouvrir la génération d’image disponible dans Photoshop ; à d’autres moteurs Ai que Firefly 3 (qui est le moteur iA made in Adobe). Vous trouverez ces alternatives : en explorant la “Barre des taches Contextuelles” oui, c’est son petit nom (cette palette ou vous saisissez votre Prompt).
Si vous l’aviez masqué par erreur : affichez-là à nouveau : en passant par le Menu Fenêtre (et pensez à l’ancrer pour qu’elle ne se balade plus… n’importe ou). Donc en explorant cette “Barre des taches Contextuelles”, vous pouvez choisir un autre modèle Ai que celui par défaut. Et franchement : cela vaut le coup, car Flirefly (même en version 3) est rarement le meilleur…
Vous pouvez essayer par exemple Gemini 2.5 (le fameux Nano Banana dont tout le monde parle). Ou alors Flux Kontext Pro (pourquoi donc faire simple quand on peut faire imprononçable). J’ai donc fait quelques test en demandant à l’Ai de tourner le tête du modèle vers “ma droite”. Résultats ci-dessous. D’abord l’image originale, cette vieille dame dans un village Vietnamien qui me regarde.
Premier essai, pas terrible ! Je ne vous montre même pas l’essai complètement raté de Firefly 3 (qui n’était pas en forme ce soir). Second essai assez moyen : ci-dessous l’ouvrage de Flux Kontext Pro, qui s’est trompé de côté… Et la personne générée ne ressemble pas vraiment à la personne de la photo originale. Impossible de la reconnaitre n’est-ce pas ?
Ensuite j’ai tenté le très récent Nano Banana (Gemini 2.5 de Google) qui est actuellement le plus “à la mode”… Et qui impressionne le monde entier depuis sa présentation fin aout 2025 (Today we’re excited to introduce Gemini 2.5 Flash Image (nano-banana) our state-of-the-art image generation and editing model)… Il a beaucoup mieux compris et respecté la couleur du visage. C’est pourquoi Adobe n’avait d’autre choix que de l’intégrer dans Photoshop, ou se faire ringardiser ! C’est beaucoup plus ressemblant. Mais il n’a pas pris beaucoup de risque non plus, car la rotation du personnage est vraiment très discrète. Le visage a également perdu un peu de sa texture et de ses rides…
Mais je dois dire que c’est l’utilisation du Plug-in ETI Image Generator pour SEEDREAM 4 qui m’a le plus bluffé ! Bien qu’il ait introduit une légère sur-saturation de la peau (facile à corriger par un petit calque manuel sur le visage)… Ici je n’ai pas utilisé la Barre des taches Contextuelles. Il faut passer par l’installation du Plug-in Eti_Image_Generator-V1 (au format .ccx pour Photoshop). Puis ensuite aller dans le Menu Plug-ins, bien entendu.

J’ai bien entendu continue à jouer un peu avec SEEDREAM 4 : en demandant (toujours en français) à changer de saison avec le prompte : “changer de saison : en hiver avec de la neige qui tombe, des flocons sur les vêtements, de la neige à l’arrière plan dans le meme décors”. Ci-dessous zoomez un peu pour admirer la résolution de l’image générée (j’aurais du demander des flocons de taille normale, là j’ai eu par défaut des flocons de cinéma)…
Et cette fois je génère directement une image en 4K : à partir de rien du tout juste un Prompt en Français (avec des fautes de frappes en plus), puis ses variantes par saison : “Un homme marche sur le troitoire dans la rue en perspective à New York avec son chien pres d’un parc à l’automne, on voit un Taxi Jaune dans le lointain. beaucoup de feuilles d’automne sont à terre. Utilise un 85 mm f/1.2″….
L’énorme différence entre ce SEEDREAM 4 et d’autres modèle ? Et bien SEEDREAM 4 est capable de travailler en 4K (c’est à dire une résolution bien supérieure à celle des autres modèles… Ce qui garanti un résultat plus “photographique”. Je n’ai fait qu’installer et survoler le potentiel de ce plug-in mais ça m’a tellement bluffé qu’il fallait en parler aussi vite que possible ! La petite vidéo de démo est réellement impressionnante :

Seedream 4.0 (souvent mentionné comme “Seedream 4” ou “SeeDream 4.0”) est un modèle d’IA développé par ByteDance, qui combine génération d’images (text → image) et édition d’images au sein d’un même système unifié. Son architecture est décrite dans l’article “Seedream 4.0: Toward Next-generation Multimodal Image Generation” (en .pdf à cette adresse). Parmi ses promesses : produire des images haute résolution (jusqu’à 4K), avec une vitesse d’inférence bien supérieure à ses versions antérieures. Il supporte le “batch input / output” : traduit en Français vous pouvez lui fournir plusieurs images de référence et générer plusieurs versions cohérentes de l’image en une seule passe. Il permet des « edits » via du langage naturel : vous pouvez dire « change ce ciel », « efface cet objet », « remplace le texte ici », tout ça dans le même contexte de génération.
Dans les tests et retours : on peut lire que Seedream 4 maîtrise mieux les détails (textes, typographie) que ses versions précédentes, en particulier sur les contenus combinant image + texte. Le modèle cherche aussi à maintenir une cohérence de personnage / style à travers des sorties multiples, ce qui est crucial pour des workflows de campagne visuelle ou de storytelling visuel.
Et je dois dire que lors de mon premier essai : c’est lui qui a rendu le personnage le plus crédible en tournant la tete du modèle, qui est resté reconnaissable. Mais tout n’est pas parfait : les images que l’on télécharge comme référence (ce que je n’ai pas fait) peuvent être stockées ou utilisées pour son entraînement (selon l’éditeur du plug-in).
Et voilà ! Ce Plug-in Chinois ETI Image Generator SEEDREAM 4 est accessible ici en payant 9$. Il faut par ailleurs acheter un minimum de 10$ de crédits chez replicate.com, que vous pourrez dépenser en plusieurs opération (cette opération unique ne m’a coûté 0,03 $).















Merci pour la découverte ! Cela fait bien longtemps que je n’ai pas ouvert Photoshop (pourtant compris dans mon abo) depuis les dernières versions de Lightroom Classic qui ne nécessitent plus que je repasse à photoshop (pour ce que j’en fais à mon petit niveau). Impressionnant, et ça fait peur en même temps…
Du coup Photoshop n’est pas totalement inutile aux photographes ;-)
Tourner un visage d’un quart de tour : après tout ce n’est pas une “retouche” plus dramatique, mensongère et inacceptable, que tout ce que l’on faisait depuis 30 ans dans Photoshop ?
Et même de l’époque de la photo argentique (sans Photoshop) : il existait des retouches parfois plus invasives que cela…
Merci pour ces informations et belle prouesse technique mais quel est donc le statut de ces images? J’ai tendance à penser que cela n’a pas grand chose à voir avec de la photographie qui est purement reliée à l’écriture par la lumière de phénomènes observables et qui ont concerné des humains existants (photographe, modèle…).
Ici il s’agit de de la création d’illustrations qui se basent et imitent le langage de la photographie avec une bonne connaissance du médium (cf le prompt mentionnant le 85mm 1.2)…bon outil pour la mise en images de produits de l’imagination!
Oui, la question du statut, se pose…
Toutefois : peu importe le statu qu’on décide d’accorder ou non à ces images. Photo ou illustration : à chacun de décider… Et ce n’est pas vraiment le problème.
Le problème est plutôt qui va les utiliser ? Et pour faire quoi ?
Et surtout : à la place de quelles images / photo qui étaient précédemment utilisées (commandées, fabriquées, achetées et payées… à qui et par qui ?)
Et voilà le résultat.. Mon éditeur d’agence photos m’a envoyé cette image, affolé, en me disant que 70% du dernier magazine de jardins avec lequel on travaille utilise des photos IA.. Et le résultat est plutôt convainquant.. j’ai aussi un copain photographe pro, le seul autour de moi qui gagnait bien sa vie, qui shootait depuis 30 ans des apparts de luxe et des villas pour des agence simmobilières très haut de gamme.. 300 € la prise de vue. En en faisant 2 ou 3/jur, cela lui garantissait des revenus confortables..Avec la chute de l’immobilier, ses revenus ont été divisés par 3 en deux ans.. Et maintenant les mêmes agences ont fourni à leurs commerciaux des Iphone dernière génération haut de gamme.. et IA et l’affaire est bouclée rapidement pour une dizaine d’euros.. L’IA c’est bien, mais cela risque très fort d’être le dernier coup de grâce pour les photographes qui essaient encore de vivre de la photo
Et oui ! Malheureusement ce n’est pas que dans la photo…
ce qui ne m’empêche pas d’être admiratif ! Mais c’est devant la beauté du diable…
“Mais tout n’est pas parfait : les images que l’on télécharge comme référence (ce que je n’ai pas fait) peuvent être stockées ou utilisées pour son entraînement (selon l’éditeur du plug-in).”
C’est l’un des enjeux cruciaux du développement de l’IA. Comme beaucoup de plateformes de réseaux sociaux ou autres grandes entreprises de services connectés au Web ils modifient sans cesses les conditions d’utilisations (que malheureusement personne ne lit… hormis la CNIL en France) afin de s’approprier nos informations perso et nos images. —> C’est de ces précieuses Data qu’ils bâtissent leur fortunes et par extensions leurs pouvoirs.
Pour d’autres raisons, d’ordre géopolitiques et de souveraineté nationale, j’imagine que cela dérangera – ou pas – les plus consciencieux de nos collègues photographes d’accepter de céder leurs droits à une entité chinoise ?
Comme pour bien d’autres domaines, à commencer par l’industrie lourde, il devient de plus en plus difficile d’éviter l’achat d’un objet dont tout ou partie provient d’une manufacture chinoise.
Demain il en sera de même pour les services de la tech boostés à l’IA qui se développent bien plus vite que ce que l’Europe ne pourrait réguler à coup de lois. (Sur ce point notre “Vieux Continent” est imbattable… !)
—> A quand une IA générative française ou européenne à la hauteur des leaders chinois ou des USA ? C’est une question cruciale, peut-être bien plus lourde pour notre avenir que simplement s’interroger si notre métier de photographe en a encore un à cause de l’IA !
J’ai oublié de te remercier JF pour cet article intéressant, merci pour l’info.
Jusqu’à présent l’IA n’était pas capable de générer facilement une image en HD avec une qualité professionnelle regroupant toutes les spécificités techniques de nos métiers – lumières / focales / ouvertures etc… sans parler du rendu sur les matières et toutes les nuances et petits défauts qui crée l’impression de naturel – il fallait pour cela passer sur plusieurs logiciels très pointus maîtrisés par peu de photographes.
Maintenant c’est chose faite !
Merci Guillaume pour tes commentaires, toujours intéressants !
Image Haute résolution : oui… presque ! Car ce n’est que du 4K… C’est mieux qu’avant (pour pas cher) : mais pas encore “énorme” pour autant. C’est une “étape marquante”, disons.
Oui, c’est Chinois : il faut le savoir ;-)
Et ceci explique peut-être la haute résolution à prix cassé…
La maison mère (ByteDance est le Meta Chinois)… est l’éditeur de Tik Tok !
Ah oui ByteDance c’est un poids lourd chinois… merci pour l’info, ça donnera encore moins envie – ou pas – d’utiliser cet IA ! :))
—> Mistral AI a du pain sur la planche !!!
Tout va très vite, c’est tjs bien de nous tenir informer les uns les autres dans notre petit milieu de la photo, en essayant d’être le plus pertinent sans pour autant faire écrire nos commentaires par l’IA, du moins pas encore ! ;-)
L’accélération de l’IA est exponentiel, nulle doute que la génération d’image en 6K puis 8K va vite arriver… les photographes créateurs d’image en studio pour mettre en valeur des produits vont devoir se mettre à l’IA ou disparaître.
Même réaliser un portrait original va devenir rapidement possible en alimentant la machine avec quelques photos déjà existantes d’une personne.
Quelles branches de notre profession va-t-il rester ?
– Photographe de presse / actualité. De plus en plus difficile d’en vivre mais c’est un autre débat.
– Photographe événementiels. B2B ou B2C. Là ça me parait compliqué pour l’IA de remplacer ce qui se passe en temps réel sur un event avec beaucoup de monde, un lieu précis, une atmosphère, plein de gens différents etc…
– Formateurs de photographes : il faudra tjs l’enseigner, différemment – demain l’art du Prompt – mais on aura tjs besoin de maitriser la lumière, les focales, la profondeur de champs, la vitesse d’obturation et le sens du cadrage.
Et puis un jour – pas si lointain – lorsque les ressources qu’offre la Terre seront épuisées, ce sera peut-être la fin de l’IA, car comparé à une simple recherche internet, elle est 10 à 100 fois plus gourmande en énergie et émettrice en CO2 qu’on reviendra à la bonne vieille IH, l’Intelligence Humaine et tout ce qu’il y avait avant l’air du numérique… L’argentique a-t-elle un avenir ?! IoI !? ;-)
Restons en éveil !
[…] SeeDream 4 : une Ai chinoise révolutionnaire… en Plug-in dans Photoshop Beta […]