- Speaker #0
Nico, quel est le lien entre un éléphant et l'IA ?
- Speaker #1
Je ne sais pas moi, ça tombe énormément.
- Speaker #0
Non, c'est que comme pour le prompting d'un problème compliqué, un éléphant, ça se mange morceau par morceau.
- Speaker #1
Ok, parlons-en.
- Speaker #0
Ok, parlons-en. AI Unboxed,
- Speaker #1
le podcast qui démystifie l'IA.
- Speaker #0
Je suis Hop. Je suis Nico. Et ensemble, on partage nos échanges sur cette révolution.
- Speaker #1
Let's go.
- Speaker #0
Avant de commencer par les problèmes et le prompting compliqué, commençons peut-être par définir le prompting.
- Speaker #1
Le prompting, c'est l'art de donner une instruction. C'est le briefing. Nous qui venons de la pub, on sait très bien ce que c'est. Si je prends un exemple simple, tu as un stagiaire qui vient d'arriver dans ton entreprise, il sait à peu près tout faire. Mais si tu lui demandes mal ou de manière pas claire ou de manière... pas complète, incomplète, de faire quelque chose, le résultat ne sera certainement pas celui que tu attends.
- Speaker #0
Je pense que c'est l'image parfaite et qui justifie cet épisode, parce que faire un briefing, ce n'est pas si simple que ça. Et briefing, débriefing, moi ce que je disais toujours à l'équipe, c'est qu'il faut expliquer le contexte, il faut clairement décrire le problème, mais il ne faut pas forcément débriefer sur la solution.
- Speaker #1
Tout à fait. L'art du futur, c'est quand même de savoir discuter avec ses ordinateurs. Le langage, je ne le répète jamais assez, est l'élément essentiel de cette révolution. C'est que les machines parlent notre langue et qu'on peut communiquer avec elles sans utiliser des 1 et des 0 ou des hashtags de code. Et donc ça, il faut en profiter, il faut l'exploiter.
- Speaker #0
Okido, est-ce que pour autant... prompteur ou le prompt engineer ou ce sera un nouveau métier ou tu crois que c'est à tout le monde à un moment donné d'intégrer la compétence et qu'en fait la compétence sera finalement à terme intégrée dans chaque fonction.
- Speaker #1
Je pense que ça a été un gros buzzword prompt engineer ces temps-ci. Il y a plusieurs choses qui me font dire que ça ne durera pas évidemment. La première c'est que la plupart des gens apprennent. C'est un peu comme au début il y en a qui faisaient des bonnes recherches sur Google et qui arrivaient à bien surfer sur Internet et à ne pas avoir peur. d'aller dans des forums, de cliquer, etc. Maintenant, c'est devenu une compétence universelle. Il y en a qui le font mieux que d'autres, ça sera toujours le cas. Le prompting, non, savoir s'exprimer à une machine, c'est comme savoir ouvrir Word ou créer quelques slides dans PowerPoint, ça deviendra une compétence de base.
- Speaker #0
Ça me fait penser peut-être que l'éducation pour préparer les travailleurs du futur, dès le plus jeune âge, et intégrer du bon prompting est un top sujet pour un autre épisode.
- Speaker #1
Évidemment.
- Speaker #0
Comment définir un bon prompt ? Je sais que tu fais aussi des formations.
- Speaker #1
Alors, un bon prompt, c'est un prompt qui respecte certaines règles. Il y a le fameux biais de confirmation dans l'IA. En tout cas, ce qui est très dangereux et très difficile à appréhender pour certaines personnes, c'est que si tu fais un mauvais prompt,
- Speaker #0
tu auras quand même un résultat pas mal.
- Speaker #1
et que nous, on a un autre biel, nous, humains, c'est qu'on est vite satisfaits, on est vite contents. Ah, c'est super, j'ai un résultat. Je donne un exemple dans mes formations pour un poste, un fameux, écris-moi, un poste LinkedIn pour mon entreprise qui vend des fleurs, par exemple. Si tu dis ça, écris-moi un poste LinkedIn qui vend des fleurs, tu vas avoir un poste LinkedIn qui parle de fleurs, mais c'est hyper générique, ça pue l'IA, ça pue le génératif. Alors que derrière, si tu fais un prompt beaucoup plus complexe, en respectant certaines règles dont on peut parler maintenant, tu vas avoir un résultat beaucoup plus avancé. En fait, c'est la même chose. Si tu demandais à ton stagiaire qui n'a pas fait du tout d'études de com de t'écrire un post LinkedIn, il va t'écrire un post LinkedIn.
- Speaker #0
Il ne connaît pas ton business. L'IA, on l'a aussi déjà dit et redit, mais l'IA ne justifie pas d'arrêter de réfléchir.
- Speaker #1
Exactement. Elle va un peu nous aider à aller plus loin. Elle va parfois nous inspirer et réfléchir un peu pour nous sur certains aspects. Mais il faut quand même qu'on réfléchisse. et cette réflexion. Cette stratégie, cette science, elle est à la base. Elle est à la base et à la fin, dans l'input et l'output. Dans l'input, parce qu'il faut bien prompter, et on va vous donner quelques trucs et astuces pour bien prompter. Et dans l'output, parce que j'en ai aussi beaucoup parlé, une des compétences du futur, c'est la curation, c'est de savoir choisir. Il y a un moment, il va te proposer, dans mon exemple de poste pour un fleuriste, il va nous en proposer 40, qui seront tous pas mal. Mais donc quoi ? Pourquoi je vais choisir le 28e et pas le 2e ? Quels sont mes critères à moi de sélection à part l'instinct ? Il faudra aussi que j'ai des critères stratégiques et business en tête.
- Speaker #0
Okido, venons-en à ces conseils pratiques.
- Speaker #1
Les conseils pratiques, il y a un process qui est assez connu déjà maintenant, qui s'appelle RACE, pour le retenir. Il y en a qui disent CARE aussi. C'est un peu la même chose, il faut retenir ces quatre lettres-là. J'irai un peu plus en détail après. RACE, c'est rôle, action, contexte et exécution. En gros, une des premières choses que j'apprends à... à vous. aux personnes que je forme et que j'essaye d'inspirer autour de l'IA, c'est de donner un rôle quand on prend. Exemple ? Exemple, tu es un spécialiste en marketing des réseaux sociaux. Effectivement. Francophone. Francophone qui travaille en Belgique, qui connaît le marché belge sur le bout des doigts.
- Speaker #0
Et peut-être la marque.
- Speaker #1
Et tu lui mets, et spécialiste dans le secteur, je ne sais pas moi, du beauty, si tu es Nivea. Donc déjà là, tu lui as donné un contexte. On parlera après comment ne pas devoir répéter ça et comment se créer des contextes. On lui a donné un contexte,
- Speaker #0
mais aussi le rôle.
- Speaker #1
Pardon, on lui a donné un rôle, c'est ça. On lui a bien donné un rôle, on lui a dit tu es ça. Si tu veux qu'il te rédige ou qu'il te fasse une analyse sur le droit belge, tu lui dis tu es un avocat spécialisé en droit de la famille. Je vais avoir besoin de toi pour rédiger quelque chose. Mais d'abord, il a ce rôle-là. Ça va permettre au modèle de langage de ne... d'être D'abord, je suis intimement persuadé, mais ça c'est une black box, que ça va consommer moins. Parce que tout de suite, il va pouvoir aller chercher au bon endroit et ne pas devoir faire un scan complet de sa connaissance. C'est comme nous d'ailleurs, comme nous d'ailleurs, humains, on réagit un peu comme ça aussi. Donc lui donner un rôle, c'est essentiel pour voir ce qu'il tape dans le fil. En deux, une action. Lui dire exactement ce que tu veux qu'il fasse comme action. Ça peut être par exemple, j'ai besoin de toi pour écrire un blog post. pour analyser des datas, comme on en a parlé dans un des épisodes ici. Donc, tu es un data scientist spécialisé dans l'analyse de data et le marketing, etc. dans notre secteur. Comme action, je vais avoir besoin de toi que tu analyses des fichiers et que tu m'en sortes quelque chose. En tout cas, analyse les fichiers, c'est l'action que tu veux qu'il exécute. Et c'est très important qu'elle soit en haut du prompt. Parce que lui, tout de suite, il va dire, je suis ça et je vais faire ça. Et ensuite, il est déjà en contexte pour faire quelque chose.
- Speaker #0
Ok, c'est de la comp... Donne un exemple aussi d'un format, un format prédéfini en T.
- Speaker #1
Oui, pour moi, ça peut aussi être dans le contexte, ça, et ça peut être dans des éléments un peu plus avancés que le reste. Mais le reste, c'est la base. C'est vraiment le minimum, minimum. Et donc, voilà, le troisième aspect, c'est le contexte. Donc là, il faut lui donner un contexte. On parlait du secteur d'activité. On parlait dans le contexte de la relance de notre nouveau produit.
- Speaker #0
Le projet dans le cas, par exemple.
- Speaker #1
Il faut vraiment qu'il le sache. potentiellement l'influencer sur son output. Et c'est très important. Et le troisième, c'est l'exécution. Fais quelque chose. J'ai besoin d'un format final. J'ai besoin d'un tableau. J'ai besoin d'un dashboard. J'ai besoin d'une recommandation. J'ai besoin d'un rapport de 40 pages, de 10 pages. On va lui dire de faire quelque chose et de demander un résultat qui doit être concret. Voilà, le RACE. Rôle, action, contexte, exécution. Si on pense déjà à ça quand on prompte, même de manière petite, tu es un avocat, je vais te demander de m'analyser un texte de loi. Le contexte, c'est que j'ai un procès contre telle personne et l'exécution finale, c'est un fichier Word que je peux moi présenter et utiliser.
- Speaker #0
Et effectivement, pour compléter, il y a d'autres mots avec d'autres lettres qui pourraient le... l'inclure, mais la forme, je vais peut-être appeler ça, et certainement pour du travail plus créatif de copywriting et autres, on peut bien évidemment intégrer aussi le ton, la longueur d'une réponse.
- Speaker #1
Notre rôle, qui est quelque chose d'assez chouette aussi, et on va reparler des GPT Custom après, mais c'est ton rôle, on en a parlé, ton rôle c'est d'être un expert en droit, mais notre rôle c'est aussi très important. Tu n'es pas... tu ne fais pas ça, tu n'es pas spécialisé en ça. Et donc, ça va vraiment l'empêcher d'aller trop loin dans des digressions. Toujours dans l'exemple qu'on avait donné d'un chat d'une entreprise qui était censée aider les clients. Donc, son rôle, on lui a peut-être dit, ton rôle, c'est d'aider les clients. Sauf qu'il y a des clients qui disaient, je veux une recette d'un spaghetti bolo. Alors que c'était DHL, une boîte de livraison. L'IA lui donnait d'aller chercher une recette de spaghetti bolo parce qu'on lui a dit qu'il faut que tu aides les clients. Un, on a mal défini son rôle. On n'a pas dit qu'il faut que tu aides les clients quand ils ont un problème avec leur livraison. Et deux, on ne lui a pas dit, par contre, tu n'es pas un chef cuisinier, tu n'es pas quelqu'un qui va donner des recettes, tu ne crées pas des chansons, tu ne réponds pas à ce genre de questions. Donc ça, c'est très important aussi.
- Speaker #0
En bref, ce n'est pas très différent que de donner un briefing clair à un être humain. Donc, il faut qu'il soit clair, précis, complet. Et ça ne sert à rien d'essayer d'impressionner une IA avec des buzzwords et des phrases très compliquées. Mais comme un être humain, il pourrait isoler une partie du briefing et donner la mauvaise réponse.
- Speaker #1
On peut même se passer de toute une enveloppe langagière qu'on peut utiliser avec un humain, avec des intros, avec des lettres de liaison, etc. en fait c'est Nous, on nous l'a toujours appris en marketing. Le fameux « who » qui est en fait le rôle. Le fameux « what » qui est en fait l'action. Qu'est-ce qu'on va faire ici ? Le fameux « why » qui est le contexte. Pourquoi on le fait en fait ici ? Quel est l'objectif ? Et le « execute » , c'est « how » . Comment on va le faire ? Comment on veut que tu le fasses comme résultat d'output ?
- Speaker #0
Je vais peut-être revenir à une notion que j'ai citée tout au début dans cette vignette avec l'éléphant, où je référais au prompting en chaîne. J'y pensais justement quand je préparais hier cet épisode et d'ailleurs tout autre épisode. C'est un problème entre guillemets compliqué. C'est-à-dire qu'on termine non pas par un texte écrit de l'épisode, mais avec un scénario structuré selon une certaine structure, un certain style. Mais il y a quand même d'autres étapes préalables. Et justement pour rester dans cette spécificité, dans cette simplicité, Je travaille avec une série de promptes qui n'utilisent pas forcément les mêmes outils, les mêmes modèles. On pourra peut-être en parler dans la foulée. Au départ, j'utilise un outil qui construit des promptes pour justement me construire un bon prompt de recherche, pour développer le dossier. Et dans ce prompt, il y a tous les éléments que tu viens de citer. Tu es un analyste qui fait une recherche, qui crée un rapport, etc. Ensuite, forcément, j'utilise ce prompt de recherche, mais plutôt dans un modèle comme Deep Search de ChatGPT. Et dernière étape, c'est prendre ce rapport de recherche que j'ai évidemment peaufiné avec quelques ajustements, quelques idées personnelles qui proviennent principalement des dernières tendances et de l'expérience acquise. Et j'utilise ça dans notre custom GPT qu'on a développé. l'objectif, la cible historique de nos conversations pour développer sur base de ce rapport un projet de scénario qui ensuite, effectivement, il faut affiner, il faut y intégrer les images qui ne sont pas la grande force, aujourd'hui en tout cas, des modèles. Et donc ça, c'est vraiment une chaîne de prompt où on change même le modèle ou l'outil au passage. Et je crois que ça, c'est un élément important, le prompt. va avoir un fort impact et fortement déterminer la qualité de l'output, mais le choix du modèle combiné au prompt est quand même important. Le choix du modèle ou de l'outil.
- Speaker #1
Tu découpes l'éléphant avant de le manger, c'est ce qu'on disait en introduction. Et oui, comme c'est une chaîne de réaction, c'est très important que dès le départ, les fondations soient bonnes. Dans cette chaîne de réaction, si le prompt de départ qui justement met les bases, met le cadre, est un petit peu biaisé, Ça va se biaiser de plus en plus, ça va avoir un impact exponentiel sur le résultat final de l'output, surtout si on utilise cette technique de découper en plusieurs. Mais moi aussi j'utilise, alors c'est drôle, on utilise des outils, on prompte des outils de prompt pour qu'ils nous fassent des prompts.
- Speaker #0
Alors vas-y étape par étape là, parce que c'est quand même une phrase compliquée, tu essayes de l'impressionner.
- Speaker #1
Mais non, moi j'utilise un GPT custom qui s'appelle SAM de Prompt Creator. qui est très bien fait, je vous le conseille, vous allez dans le GPT Store, il est gratuit. Et lui, sur une demande simple, il va lui-même structurer tout ce qu'on a dit avant. Le race, etc. Il va essayer de mettre un rôle.
- Speaker #0
Il est exactement le même.
- Speaker #1
Il est vraiment impressionnant et surtout, dans le fond, il est impressionnant parce qu'il structure bien la demande, il rajoute des choses. Alors après, on peut toujours le modifier. Dans la forme, c'est pas mal aussi parce qu'il ne faut pas oublier que les modèles de langage, il y a des formes qu'elles aiment bien. Par exemple, Sam de Prompt Creator, il utilise beaucoup des astérix pour séparer des chapitres. Ça permet encore plus vite, c'est comme nous, une lecture diagonale au modèle de langage, de lire le prompt et de le comprendre de manière structurelle.
- Speaker #0
De les mettre dans l'ordre, les éléments, mettre éventuellement un focus, augmenter l'importance de certains éléments qui sont vraiment clés.
- Speaker #1
Et donc, pour expliquer la phrase que je dis, parfois j'utilise Sam de Prompt Creator pour me faire un prompt de base que je vais utiliser. soit dans GPT, soit dans un outil de génération d'images, de vidéos, etc. Donc, il m'accompagne pour démarrer une conversation avec une autre plateforme ou avec la même, en fait, on peut rester dans le chat GPT. Donc ça, c'est important.
- Speaker #0
J'ai parlé de briefing clair, précis et complet. En même temps, on doit éviter de devenir trop directif, trop précis. Et il faut quand même, pour pouvoir vraiment bénéficier du potentiel des outils et des grands modèles de langage, laisser une certaine liberté pour justement quand même exploiter la force.
- Speaker #1
Et la créativité, on va dire, même stratégique. Il y a un truc qui est assez important que j'ai remarqué et qui est peut-être le conseil de le... En dehors de rôle, rôle c'est vraiment le conseil de base. Toujours mes promptes commencent par tu es, si je n'utilise pas un custom GPT, où il a déjà un rôle. Mais sinon le petit truc vraiment que j'aime beaucoup, c'est qu'à la fin de votre prompt, vous mettez en anglais ask me anything. Vous finissez vos promptes par demande-moi tout ce que tu as besoin de me demander si jamais je n'ai pas été complet. Et ça c'est génial. C'est un peu comme d'ailleurs ce qu'un annonceur, ce que moi je faisais avec les annonceurs. Avec moi ? Écoute, ton briefing, c'est super. Merci beaucoup. Mais j'aimerais que tu complètes tel et tel point. D'ailleurs, nous, à l'époque, je me souviens très bien comme en plus, on avait un aspect technique dans les briefings. On avait besoin de nous dévaluer un prix. Et mon directeur technique, Hugues, à l'époque, il posait beaucoup de questions aux clients. Il disait, mais le briefing, il n'est pas complet. Comment veux-tu qu'on fasse une analyse financière si on ne sait pas tel et tel point qu'ils veulent faire ? Donc, on posait les questions. Et on perdait pas mal de pitchs à cause de ça. Parce qu'on posait trop de questions. Et on s'est toujours demandé comment les autres font s'ils n'ont pas les réponses à ces questions. Et donc les autres, c'était un peu, on verra bien.
- Speaker #0
Ils explosent le budget, oui, peut-être à l'argent.
- Speaker #1
Évidemment, ils explosaient le budget. Comme ça, ils disaient, on verra bien et on assumera. Mais ce n'était pas la bonne façon de faire du business. La bonne façon de faire du business, c'est d'être clair dès le départ. Et que ce soit en marketing ou avec mon jardinier avec qui je fais le tour du jardin. et j'ai dit il faut couper ça, il faut couper ça Que je ne sois pas étonné le soir s'il a arraché un arbre parce que je n'avais pas été clair dans ma demande.
- Speaker #0
Dans la catégorie trucs et astuces, c'est clair que le bon prompt, pleine de questions, va déjà permettre de gagner du temps. Mais, et c'est là où je pense qu'il y a un deuxième niveau de gain de temps, on a quand même des questions similaires. Comme par exemple, moi, pour ma préparation de podcast, je répète ça régulièrement. en ce moment, on connaît des... des missions récurrentes, comment éviter de refaire la même mécanique, le même travail à chaque fois. Alors oui, on peut évidemment avoir des templates.
- Speaker #1
Oui,
- Speaker #0
décollés,
- Speaker #1
mais ce n'est pas comme ça qu'il faut faire.
- Speaker #0
Qui fonctionnent bien, mais il y a d'autres astuces qu'on peut adopter.
- Speaker #1
En tout cas, dans ChatGPT, il y a deux principes qui sont vraiment sympas. Il y a les CustomGPT. Donc là, tu construis un CustomGPT et au départ, tu le profiles. Donc tout ce qu'on a dit maintenant, le reste, tu lui donnes dès le départ. Voilà, ton rôle, c'est stocké, ad vitam, il a une mémoire en plus, évidemment, de tout ce que tu as dit. Donc, avec le temps, il peut s'améliorer. On a un custom GPT AI Unboxed dans lequel les gens peuvent aller poser des questions. Il est public, il me semble, il faut vérifier, mais je pense que oui, on mettra le lien en dessous. Poser des questions sur le contenu de nos podcasts sans aucun problème.
- Speaker #0
Et donc là, juste pour être un peu plus spécifique sur les éléments intégrés, on explique le concept du podcast. Je pense qu'on a même briefé un tout petit peu nos CV. Oui,
- Speaker #1
tout à fait, on a mis nos CV.
- Speaker #0
Évidemment, le ton, etc. On a mis les transcripts des épisodes précédents. Et on a quand même spécifié aussi, je pense, un peu une structure qu'on veut adopter à chaque fois.
- Speaker #1
Le ton de communication, la cible, tout ça. On ne doit plus jamais le remettre. Et donc moi, quand on a une question pour ce podcast, si on va dans ce custom GPT, ça nous évite de chaque fois remettre le contexte. C'est très important.
- Speaker #0
Et une partie, c'est sous forme, on pourrait dire, de formulaire. Et puis, on peut attacher une série de documents, que ce soit même PDF, du moment évidemment que le texte soit stocké en texte, parce qu'il faut qu'il puisse l'interpréter. PDF, Word, Excel.
- Speaker #1
Il faut mettre un maximum de documentation pour le formater. Donc, il y a deux choses quand on crée un custom GPT. Un, on le nourrit et deux, on le configure. En gros, c'est ça. Le nourrir, c'est lui donner de la data. On en a parlé dans un autre épisode. Un maximum de data. qui sont cohérentes. Et l'autre, c'est le configurer. C'est lui dire, voilà, ton rôle sera ça, ton objectif sera ça.
- Speaker #0
Et je pense que les projets qui justement existent aussi dans ChatGPT...
- Speaker #1
J'allais en parler. C'est la deuxième solution.
- Speaker #0
On pourrait dire que c'est une version simplifiée.
- Speaker #1
Ça ressemble au CustomGPT, mais ça a d'autres avantages. C'est que tu peux avoir, par exemple, plusieurs prompts à l'intérieur d'un projet différent, plusieurs discussions différentes. Parce qu'il y a quand même quelque chose de très important, c'est dans l'art du prompt, c'est de savoir qu'il y a quand même une mémoire à l'intérieur du même chat. Donc ça c'est très intéressant. Dans un custom GPT, c'est tout le temps le même chat. On a cette mémoire. Dans un projet, les projets sont plus tournés vers les équipes, je pense aussi. C'est que chacun peut avoir des problèmes. Sur le même projet, sur le même projet interne, on a chacun nos recherches à nous, mais ça fait partie d'un seul et même projet.
- Speaker #0
Et les customs sont... Un peu plus avancé dans le sens, je pense, qu'on peut aussi lui donner des outils et des accès à des API. Donc ça devient plus technique.
- Speaker #1
Des API ou des MCP, on en a parlé, les Models Context Protocol, pour que lui-même discute avec d'autres IA, avec, je ne sais pas, moi, mon Google Analytics, il va chercher les chiffres et je peux, moi, on en parlait dans un autre podcast aussi, je peux prompter des chiffres et un peu discuter avec lui sur des datas.
- Speaker #0
Et le dernier, qui est vraiment la partie la plus simple, c'est de quelque part un tout petit peu se décrire et de donner des... dans les préférences, la configuration de ton...
- Speaker #1
Les instructions. Les instructions,
- Speaker #0
voilà. C'est un petit peu lister, voilà, je suis telle et telle personne, donne-moi des réponses courtes, évite de donner à chaque fois de longues introductions. Donc, je pense que ça, on ne donne pas beaucoup de contexte, il n'y a pas d'attachment, etc. Mais on peut quand même un tout petit peu définir le style.
- Speaker #1
Et vous allez gagner du temps, vous allez éviter les erreurs où, ah zut, cette fois-ci, je ne lui ai pas donné... En plus, un peu de cohérence. Parce qu'en fonction de ce fameux REST, de tout ce qu'on va configurer dans un prompt ou dans un custom GPT, l'output ne va pas être le même. Et donc si on refait dix fois plus ou moins la même demande à propos du même projet ou d'un projet similaire, il suffit qu'on varie un tout petit peu dans notre prompt et on ne va pas avoir totalement la même façon de réagir de l'IA.
- Speaker #0
Parce que quelque part, on aura modifié son mémoire entre temps.
- Speaker #1
Potentiellement, oui. Ou elle-même, ce sera enrichi derrière. Potentiellement.
- Speaker #0
Une grande frustration que j'ai, c'est... Et je pense que c'est surtout quand les conversations deviennent longues, à un moment donné, il faut oser dire, j'arrête et je recommence. Parce que quand on enchaîne les promptes sur les promptes sur les promptes, à un moment donné, en tournant rond, on se prend tout le temps les mêmes réponses. Et puis, on n'a plus du tout le sentiment de s'approcher d'une solution au problème.
- Speaker #1
Et à chaque fois, il nous dit, oui, tu as tout à fait raison. Désolé, je me suis trompé. Mais s'il dit ça à chaque fois, il y a un moment, c'est plus très sûr.
- Speaker #0
Et si ça se trouve, parfois c'est nous qui nous trouvons. Oui,
- Speaker #1
alors attention, les modèles changent. Là, ChatGPT parle de O4, il me semble. Déjà qu'O3 était vachement impressionnant avec les générations d'images. D'ailleurs, générations d'images qui ne nécessitaient pas un prompt complet, puisqu'elles, sur base de ton prompt à toi, même basique, génèrent une image d'une main avec un téléphone. Lui-même va créer son prompt derrière. Tu le vois résonner maintenant. C'est public. L'utilisateur me demande de créer. Je suppose qu'il veut ça. Je vais le mettre dans un contexte. Et là, il va chercher un petit peu des contextes, potentiellement dans l'historique de tes conversations, ce qui est très intéressant. Mais tu vas voir qu'il va lui-même se prompter. Et d'où la grande révolution sur les images de ChatGPT. Pourquoi ChatGPT maintenant fait des meilleures images avec du meilleur texte ? vraiment un des meilleurs effets réalistes, photoréalistes que Midjourney, par exemple, parce qu'il arrive à mieux comprendre ce que l'utilisateur veut et il se refait un prompt lui-même derrière. Et donc, en fait, il y a moins d'erreurs.
- Speaker #0
Mais ça reste quand même aujourd'hui plus difficile de générer une image qui correspond à ce qu'on a en tête que de travailler en texte, non ?
- Speaker #1
C'est-à-dire ?
- Speaker #0
C'est-à-dire que quand on veut une image... spécifique, à la limite qu'on s'est fait une image de ce qu'on veut générer, moi j'ai le sentiment que... À mon avis, il y a juste plus de paramètres dans une image. Il y a la lumière, il y a les couleurs, il y a la composition, etc. Et donc pour vraiment générer une image spécifique, j'ai le sentiment que le prompting reste quand même plus difficile que pour générer un copy pour un post LinkedIn, pour juste prendre un exemple.
- Speaker #1
Oui, potentiellement oui. En fait, il y a potentiellement plus de résultats derrière. Il y a plus de variations possibles dans une image que dans un post. Mais il y a des outils pour ça. D'abord, il y a les outils de prompting. On a parlé de Sam, de Prompt Creator, mais typiquement, pour une image, c'est génial parce que lui-même va décrire l'ensemble du début, les angles de caméra, etc. Mais si on veut l'influencer là-dessus, il y a aussi le reverse prompting, qui est quelque chose que les gens n'utilisent pas beaucoup. Tu disais, j'ai une image en tête. Cette image, si tu la vois sur Internet, tu la prends, tu la mets dans le chat GPT et tu lui dis, donne-moi le prompt pour faire une image similaire. Et là, il va te décrire l'entièreté de l'image sur un prompt.
- Speaker #0
Et construire un custom GPT avec une série d'images qui correspondent au langage visuel de ma marque ?
- Speaker #1
C'est possible. Voilà une série d'images, nos dernières campagnes, et les prochaines fois que tu vas me générer une image, je veux que tu utilises ça. Alors attention que le générateur custom GPT n'utilise pas tout à fait les mêmes modèles, les plus récentes, chaque GPT, donc il y aura peut-être un problème technique, mais l'idée est là, oui, tout à fait.
- Speaker #0
Je t'ai interrompu, parce que tu as abordé le... aux quatre nouveaux modèles, et puis on n'a pas vraiment...
- Speaker #1
Oui, alors c'est tout récent, je n'ai même pas encore beaucoup testé, il est un peu caché, je l'ai testé une fois ce matin, donc encore plus de raisonnement, encore moins d'hallucinations, c'est ce qui est annoncé, plus de rapidité, et une sorte de mix entre leur mode research maintenant, où il fait des deep research, il va vraiment chercher loin, et le mode, entre guillemets, classique, où il veut vous donner une réponse le plus vite possible, sur base de sa connaissance. Donc oui, ce sera mieux, n'en doutons pas. Et potentiellement, cette mise à jour va ouvrir aussi plus de possibilités pour le shopping conversationnel.
- Speaker #0
Ok, c'est ce dont on a discuté la dernière.
- Speaker #1
Oui.
- Speaker #0
Est-ce que tu crois qu'on peut essayer de faire un résumé très pratique ? Je pense qu'effectivement, vraiment très pratique. Quelques conseils et puis essayons de quand même lister quelques outils peut-être.
- Speaker #1
Alors en outils, il y a tous les LLM, parce que là on parle de prompting, mais c'est quand même la base de communication avec un modèle de langage.
- Speaker #0
Et puis il y a Sam.
- Speaker #1
Ça c'est un GPT Custom, Sam the Prompt Creator. Il s'appelle Sam, ce n'est pas pour rien, on le retiendra. Sam Altman, c'est le fondateur d'OpenAI. Lui, il est très bien. Il y en a plein d'autres. Très bien. À une époque même, dans mes formations, je parlais de pack de prompt. Au tout début, il y en a quand même fait un business qui faisait faire des prompt par l'IA et il les vendait dans des packs.
- Speaker #0
Des templates.
- Speaker #1
Des templates. Donc, il fallait copier-coller et il y avait des mots entre parenthèses qui suffisaient de changer. Je pense que ça a évolué et que maintenant, il faut utiliser des outils pour affiner ses prompt. les vérifier et après les exploiter dans les différents outils. Parce que là, on parle de chat GPT, mais ça peut être dans MidJourney, ça peut être dans Copilot, à l'intérieur d'Excel, c'est déjà différent, puisqu'il a le contexte. Dans le fameux REST, il sait déjà qu'on est dans un Excel et qu'on va lui parler de data, c'est sûr et certain. J'ai vu un autre exemple dans Word directement, où on fait un deep research dans Word. Là aussi, il y a déjà un contexte, c'est qu'on est dans Word, on s'attend à un document écrit. Et on fait une enquête, fais-moi une enquête sur ça, et ça génère directement le texte dans le Word.
- Speaker #0
Je pense qu'effectivement, pour ceux qui ont accès, commencer à tester et voir les variantes avec...
- Speaker #1
Évidemment, évidemment. Et alors, il n'y a rien de tel que de faire de l'A-B testing soi-même. Ça ne prend pas tant de temps que ça. Et encore une fois, on ne le fait pas beaucoup. On a ce biais de satisfaction, parce qu'on est encore vachement bluffé par les résultats. On dit « Waouh ! » Mais n'hésitons pas. C'est comme sur Google, si on cliquait tout le temps sur le premier lien. On serait quand même content, on a un résultat qui correspond, mais il suffit de scroller un petit peu et d'aller un peu plus loin. Donc faites deux prompts différents, promptés, ou alors le même prompt sur deux modèles de langage différents et comparez les résultats, vous aurez vous-même votre avis.
- Speaker #0
Il y a le race ?
- Speaker #1
Il y a le race, tout à fait. Il y a le role, notre rôle, c'est quand même important. Donc tu sais tout sauf ça. C'est vraiment un petit truc et astuce qui lui permet de se limiter dans un champ d'application. et à part ça le contexte ça c'est dans le réessent oui mais il est dedans mais c'est vraiment essentiel c'est sûr d'ailleurs c'est potentiellement pour ça qu'ils ont sorti des custom GPT c'est pour que le contexte soit permanent c'est à dire voilà le contexte en fait mid-journée c'est un peu un custom GPT de génération d'images c'est à dire que le contexte il est déjà là on va faire que des générations d'images et toutes ces IA un peu spécifiques Merci. que moi j'utilise, mais de moins en moins, parce que de plus en plus, ça va se regrouper dans une seule, en fait, c'est un peu comme des custom GPT. Elles ont déjà un objectif au départ.
- Speaker #0
Je crois que ça vaut vraiment la peine de commencer par des problèmes ou des prompts plus simples. Ne pas oublier qu'effectivement, parfois, ça vaut la peine de découper un processus ou une mission plus compliquée en différents prompts. Et après ça, passer à des... à des promptes qui servent à des deep search, par exemple, parce que là, on donne une mission à prompte et puis il faut attendre 5, 10, parfois 15 minutes. Même plus parfois. Donc là, il faut vraiment maîtriser les principes de base pour éviter de se rendre compte dans le résultat qu'il faut relancer un prompt qui va à nouveau prendre 10, 15 minutes, etc.
- Speaker #1
Et s'il y a, comment ça nous fait perdre du temps ? On ne va pas s'en sortir. Donc ça, c'est sûr.
- Speaker #0
Petite, enfin non, grande question. Nicolas, le prompting, on en a parlé, ce n'est pas très différent d'un langage. Alors on sait tous, ou certains prétendent, qu'apprendre les langues c'est plus facile pour les uns que les autres. Tu crois que ça vaut aussi pour le prompting ? Savoir s'exprimer, oui, on est tous différents. J'ai des copains, ils essaient de m'expliquer une situation. Je dis écoute, recommence au début parce que tu t'es emballé, tu as commencé par la fin, puis tu m'as dit ce qui se fait. Bref, oui, on est tous différents, on a tous des compétences différentes. C'est une forme de pédagogie aussi. Moi, on me dit souvent, t'expliques bien. C'est pour ça qu'on est là, j'aime bien expliquer les choses parce que je connais le contexte, parce que je sais à qui je m'adresse. C'est ces réflexes-là. que je mets en place de manière un peu instinctive. Donc oui, clairement, les compétences humaines derrière sont les mêmes. Alors ça va peut-être un petit peu se lisser. On va dire que ceux qui vraiment savaient mal s'exprimer ou exprimer mal leurs besoins, ils ont des nouveaux outils qui vont leur permettre d'aller plus loin.
- Speaker #1
Effectivement, les nouveaux outils avec le voice, les fonctionnalités voice, voix, on peut avoir à la limite une explication chaotique et demander à... un custom GPT ou un autre, d'en faire un prompt. Et de les retirer un petit peu.
- Speaker #0
Maintenant, avec la voix, avec le texte. Il y en a qui écrivent de manière aussi chaotique qu'avec la voix.
- Speaker #1
C'est plus rapide, parfois, quand même.
- Speaker #0
Tu peux plus facilement être chaotique.
- Speaker #1
Et c'est parfois un peu chaotique, quand même.
- Speaker #0
C'est vrai. Donc oui, c'est un art de pouvoir s'exprimer, de communiquer avec les machines. Mais de plus en plus, les machines ont l'art aussi d'essayer de comprendre ce qu'on veut dire. Comme moi, qui essaye quand même de comprendre. où veut en venir mon ami parce que je ne comprends pas toute son histoire, mais je recolle les morceaux. Mais ça, ça devient dangereux. En tout cas, dans le business, ça, c'est dangereux.
- Speaker #1
Je pense que là, on a un sujet dont le testing est accessible à tous. Donc, j'espère que vous êtes tous très impatients. On va peut-être clôturer ici et on espère que vous avez tous essayé les quelques petits trucs et astuces qu'on vous a donnés. Merci Nicolas. N'hésitez pas. A très bientôt. Ciao, ciao. Bye.