Imaginez la scène: vous demandez à une intelligence artificielle de créer l'image d'un vaillant chevalier victorieux, et elle vous pond un robot argenté qui aurait sa place dans Le Magicien d'Oz plutôt que dans un récit de Game of Thrones. C'est exactement ce qui s'est passé le 27 août dernier, pendant ma formation sur l'art du prompt visuel, quand j'ai voulu montrer à mes participants la différence entre ChatGPT et Gemini. Disons que le chevalier généré par ChatGPT avait plus l'air de sortir de la section liquidation du Jean Coutu le lendemain de l’Halloween qu'avoir combattu fièrement un terrible dragon rouge.
Ce moment-là, aussi drôle qu'il soit, illustre parfaitement pourquoi j'ai créé cette formation. Parce qu'aujourd'hui, tout le monde et leur mère peuvent générer des images avec l'IA, mais entre nous, il y a tout de même une grande différence entre cliquer sur "générer" et vraiment savoir ce qu'on fait. C'est comme la différence entre mettre son argent dans une machine à sous au casino et l’investir intelligemment: techniquement, les deux peuvent te rapporter, mais un des deux est pas mal plus laissé au hasard.
Mes participants, un beau mélange de monde du manufacturier et de la techno, sont arrivés avec la même question existentielle: "Pourquoi mes images AI ont-elles l'air cheap?" La réponse? Parce qu'on leur a vendu l'idée que l'IA fait tout le travail à leur place. Spoiler alert: non. L'IA, c'est comme un designer stagiaire super talentueux mais qui a besoin qu'on lui explique clairement ce qu'on veut. Si tu lui dis "fais-moi une belle image", tu vas avoir quelque chose. Si tu lui parles de cadrage, de style, de point de vue, là tu vas avoir quelque chose qui a de l'allure.
Ce qui me fascine le plus, c'est de voir comment chaque outil a sa propre personnalité et ses propres limites. ChatGPT avec DALL-E, c'est ton couteau suisse : accessible, intégré, parfait pour des besoins rapides et variés. MidJourney? C'est l'artiste de la gang, celui qui va te créer des images qui ont du "wow" visuellement, mais qui demande un peu plus de prompt pour comprendre ce que tu veux. Stable Diffusion, c'est pour ceux qui aiment avoir le contrôle total – un peu comme ceux qui refusent d'acheter des meubles IKEA parce qu'ils préfèrent construire eux-mêmes.
Ce qui a vraiment allumé une étincelle chez mes participants, c'est quand on a décortiqué la mécanique derrière tout ça. Le token weighing, c'est pas un terme qui fait rêver, mais c'est l'art de dire à l'IA "hey, [ça ou ici] c'est vraiment important, concentre-toi là-dessus". Un peu comme quand tu répètes trois fois à ton chum qu'il faut PAS oublier le lait à l'épicerie.
L'utilisation de sketch pour guider la composition? Ça change la donne complètement parce que comme on dit, une image vaut mille mots, même pour en créer une. Tu pars plus de zéro, tu donnes une direction claire et visuelle au lieu d’essayer d’expliquer en vain une composition. C'est comme quand on donne un plan d’ingénieur à un ouvrier sur le plancher au lieu de juste lui expliquer de quoi ça devrait avoir l'air.
Mais au-delà de la technique pure, on a aussi plongé dans les zones grises qui rendent plusieurs personnes inconfortables.
- Les droits d'auteur quand tu génères une image qui ressemble étrangement au style d'un artiste vivant.
- L'impact environnemental d'une technologie qui consomme autant d'énergie qu'une petite ville pour créer une image de chat en astronaute.
C'est important d'en parler, parce que comprendre ces enjeux, c'est ce qui fait la différence entre utiliser l'IA de façon responsable et juste surfer sur la vague sans réfléchir.
Pour mes clients qui gèrent des sites web ou qui veulent créer du contenu pour leurs réseaux sociaux, cette formation, c'était leur donner les clés du royaume. Parce que oui, on peut toujours engager un designer pour chaque petit besoin, mais des fois, on veut juste créer un visuel rapide pour annoncer une nouvelle promotion ou illustrer un article de blogue. Avec les bons réflexes de composition et une compréhension solide des outils disponibles, soudainement, on a plus besoin d'attendre trois jours pour avoir son image. Ça ne remplace pas le travail d'un designer professionnel pour les gros projets, mais ça leur donne l'autonomie pour les 1001 petites choses du quotidien qui, mises bout à bout, définissent leur image de marque.
Ce qui me rend particulièrement fier, c'est de voir comment cette autonomie-là transforme la relation qu'ils ont avec leur contenu digital. C'est plus "on a besoin d'une image", ça devient "on veut raconter cette histoire-là, visuellement, et voici comment on va le faire". La nuance est subtile, mais elle change tout.
Finalement, peut-être que mon chevalier raté de ChatGPT était exactement ce qu'il fallait pour cette formation. Parce qu'il nous a rappelé qu'en 2025, l'intelligence artificielle est un outil extraordinaire, mais qu'elle ne remplace pas la créativité humaine, la réflexion stratégique, et surtout, l'intention derrière chaque création. Elle l'amplifie, si on sait comment lui parler. Pis ça, ben, ça s'apprend. Un prompt à la fois.