- Speaker #0
ça va être intéressant de voir comment vous pouvez l'utiliser dans vos process aujourd'hui donc aujourd'hui voilà ça c'est pas encore totalement abouti mais j'imagine donc tu parlais tout à l'heure d'importer des bases de données d'avis dans le chat GPT pour lui demander des angles d'attaque ou les pains principales qui ressortaient est-ce que tu as d'autres use case de vous chez StrideUp en interne comment tu utilises l'IA au quotidien ?
- Speaker #1
ouais il y a plein d'outils aujourd'hui qu'on a qu'on a intégrés au fur et à mesure avant que ChatGPT arrive. Il y en a un dont je te parlais juste avant, c'est améliorer la qualité d'une vidéo ou d'une photo. Aujourd'hui, on a des outils qui sont ultra performants. Il y a un an, deux ans, ça aurait été incroyable d'avoir ça à disposition. Donc ça, on a aussi...
- Speaker #0
C'est quoi tes outils ?
- Speaker #1
On a Topaz, qui est un très bon outil, un logiciel qui a fait une mise à jour assez récente. Donc tu as la version photo, la version vidéo, Topaz AI photo, Topaz AI vidéo. D'accord. Et c'est pareil, ils ont plusieurs modèles d'intelligence artificielle, selon les typologies de vidéo que tu as.
- Speaker #0
D'accord.
- Speaker #1
Et c'est vraiment assez intéressant. Voir après même, tu en as, donc ça ce sont des logiciels avec des licences, mais tu as aussi les versions online. Moi j'utilise beaucoup crea.ai, ça a un cas. Et c'est pour ajouter de la texture à des photos. Ah ok. Mais ce n'est pas juste augmenter la qualité d'une photo, ça peut venir recréer de la matière sur la base d'impronte. Et c'est vraiment impressionnant. Par exemple, tu ne t'as pas. Tu travailles avec un client. Il a plus les packs de ses produits admettons. Tu peux aller récupérer ceux de son site, les passer dans une intelligence artificielle de ce type là. Et du coup, tu récupères des contenus qui sont exploitables derrière. en motion design que tu peux réutiliser un peu pour toutes les ads et rien que ça en fait ce truc là c'est une barrière technique qui est levée il y a quelques années on se serait juste retrouvé avec des backshots de mauvaise qualité dans les ads et du coup qui est complètement ouvert aujourd'hui on a aussi des outils qui nous permettent de faire de la traduction de voix justement dans les vidéos... des outils aussi qui lip-sync le contenu. Donc en fait, d'une version française ou anglaise, on va être en mesure de décliner sur plusieurs langues. Ça, c'est pareil, c'est une levée de barrière technique qu'il y a quelques années, il fallait soit faire une voix-off, mais c'était un peu lourd avec des acteurs, ou alors faire deux contenus. Et aujourd'hui, c'est largement facilité.
- Speaker #0
C'est incroyable, en vrai. Est-ce qu'il y a d'autres use cases de vous en interne, vraiment d'embouilles internes chez StrideUp, dans lesquelles vous utilisez l'IA pour l'optimisation de process,
- Speaker #1
trouver des idées ? On utilise aussi l'IA, enfin c'est pas pour trouver des idées, mais c'est plus, encore une fois, pour aller chercher des choses qu'on n'a pas, de la part de nos clients potentiellement, avec de la génération, de l'IA générative. Donc plutôt que d'aller chercher du stock footage,
- Speaker #0
D'aller chercher du stock footage,
- Speaker #1
c'est des images d'illustration que tu as dans des banques, qu'elles soient photos ou vidéos. On va utiliser mid-journée pour aller justement chercher du contenu supplémentaire. Et justement, là, tout le travail, depuis deux semaines, je suis à fond là-dessus. La problématique principale, c'est comment faire en sorte d'intégrer les produits spécifiques de nos clients dans le résultat de l'IA.
- Speaker #0
Ouais.
- Speaker #1
Parce que c'est ça la barrière.
- Speaker #0
C'est-à-dire que tu as ton contenu que toi tu as fait, ou tu lui dis rajoute un arbre derrière, ou rajoute du soleil parce que c'est l'été. Et là c'est l'inverse, c'est-à-dire dans un contenu déjà existant, ajouter des pack shots.
- Speaker #1
Exactement. Ou alors, là j'avais le cas justement, l'été arrive, ils n'ont pas encore eu les moyens d'aller faire un shooting sur la plage, déjà parce qu'il ne fait pas beau. Et parce que le temps, l'argent, etc. Il faut y aller. Quand tu es à Paris, ce n'est pas forcément facile. Et du coup, assez rapidement, on est en mesure de faire une photo d'illustration avec l'intelligence artificielle pour intégrer notre produit sur la plage assez facilement. Et justement, moi, je fais de la photo depuis assez longtemps maintenant. notamment de la photo argentique, donc c'est un peu le contre-pied du truc, mais ça aide énormément sur l'IA, parce que le plus difficile sur Midjourney, c'est d'aller faire les contenus photoréalistes. Faire des choses très marquées, de steampunk, des univers très codifiés, c'est plus accessible, mais faire des contenus très réels, type photoréalistes, c'est plus accessible. C'est un peu faut se tirer les cheveux quoi. Et du coup, en fait, de lui donner le type d'appareil que tu utilises, ta composition, l'objectif, la lentille, le grain que tu veux, le type de pellicule argentique que tu veux. Ouais, ça va lui donner énormément d'indicateurs pour aller générer des contenus qui vont être beaucoup plus réaliste et du coup exploitable derrière dans les dans les ads.
- Speaker #0
Ok, trop cool. Est-ce qu'il y a d'autres outils qu'on n'a pas évoqués qui peuvent être intéressants d'aller creuser ?
- Speaker #1
Il y a ce spoo, quoi. J'en ai un autre vraiment dingue, ça va vraiment s'adresser au CREA qui commence à être vraiment dans la CREA, sur After Effects. En fait, c'est un plugin sur After Effects, donc un logiciel vraiment assez poussé dans la suite Adobe pour faire des animations, motion design et SFX. et donc c'est en fait un plugin qui vient faire le pont entre ChatGPT et After Effects qui intègre ChatGPT, enfin OpenAI dans After Effects, ça s'appelle ClutsGPT et en fait tu vas pouvoir via cet outil créer des expressions des scripts directement sur des bains que tu rencontres dans le logiciel typiquement il y en a un c'est l'import de sous-titres sur After Effects pour être en mesure de faire des animations complètement personnalisées Et bien, la manière basique de l'importer, c'est un fichier, un calque texte. Et j'ai fait un script qui me permet justement d'importer chaque piste de texte sur des calques uniques et du coup d'être en mesure de les retravailler hyper facilement derrière. Et ça, je l'ai fait en cinq minutes avec OpenAI dans After Effects. Et ça, c'est pareil. Avant, il fallait être développeur. pour être en mesure de faire ce genre de monde et de tout. Il y a un bon développeur spécialisé à faire avec donc ça pour pas les rues non plus.
- Speaker #0
C'est clair. Ah c'est ouf, hyper, hyper intéressant. Ça me donne plein d'idées.
- Speaker #1
Le problème, c'est que tu es enfin du coup. Moi, je passe des nuits à tester les outils. Ce qui est un peu frustrant, c'est que j'ai testé beaucoup d'outils d'IA pour trouver les bons. La bonne manière d'utiliser tel et tel outil.
- Speaker #0
Bon, ça aussi, quoi. C'est comme tu disais, voilà, le mid journée, tu lui demandes Fais-moi ça et que le résultat ne te convient pas. Versus utiliser telle pellicule, tel appareil, etc. Ce qui va te permettre d'avoir un résultat convenable par rapport à ce que tu attends, c'est l'utilisation plus que l'outil en lui-même. Oui,
- Speaker #1
exactement. L'outil reste un outil. Il y a en étant au même titre que n'importe quel outil. Et justement, la problématique derrière, c'est qu'une fois que tu arrives un peu à maîtriser l'outil, C'est comment tu fais en sorte que le reste de l'équipe, le reste de Créa puisse l'utiliser de la même manière. Et là, tu vois, sur mes journées, j'ai fait un prompt formula qui justement aide à la génération des prompts avec des menus déroulants, tu vois. Tu choisis ton appareil, tu choisis ta lens, tu choisis l'effet que tu veux. Et avec l'aide de quelques prompts TGPT pour de la description d'univers, etc. derrière ça te fait ton prompt mid-journée automatiquement et bien optimisé par rapport aux différents tests qu'on a pu faire avant c'est ouf, ton métier est en train de se transformer tu passes de créatif à prompt engineer exactement en fait c'est hyper excitant carrément je pense qu'il faut s'y intéresser aussi ça va devenir incontournable je pense pas que ça remplace aujourd'hui il n'y a aucun IA magique qui va intégrer ton produit et avoir quelque chose qui sera exploitable tel quel. Oui, bien sûr. Je sais que j'en ai beaucoup parlé avec Cabaya qui sont très avancés sur les sujets et très intéressés par toutes ces opportunités que ça ouvre. Mais la problématique, c'est d'avoir quelque chose qui soit exploitable derrière pour une marque. Et ça, sans intervention, c'est très compliqué.
- Speaker #0
C'est ce qu'on disait encore une fois, il faut être capable de... bien utiliser l'outil et ça, c'est vraiment un truc qui s'apprend quoi.
- Speaker #1
Finalement, il faut y passer des heures. Je sais pas combien d'heures, c'est combien d'heures la base pour utiliser un outil. Je crois que c'est dix mille heures.
- Speaker #0
Oui, ça,
- Speaker #1
il y a des chiffres comme ça.
- Speaker #0
Ouais, effectivement,
- Speaker #1
bien maîtriser un outil, c'est que ce soit After Effect ou une IA, c'est un peu la même.
- Speaker #0
Ouais, carrément.