- Speaker #0
Le SEO, c'est d'abord du partage. Ce podcast regroupe des experts du référencement passionnés par le sujet. Optimiser devient compulsif, un besoin de chercher des hacks pour rendre le digital plus fluide. C'est une addiction que je souhaite vous transmettre avec mes invités. Stimulez votre addiction au SEO avec notre podcast et talk. C'est parti ! Vincent Terasi, bonjour, merci beaucoup d'être là pour ce podcast, je suis vraiment ravi de t'interviewer. On va parler IA tous les deux. D'ailleurs, au passage, j'invite à tous nos auditeurs à liker le podcast, à nous mettre des commentaires, à nous dire qui veulent recevoir. Vincent, est-ce que tu peux peut-être te présenter pour les gens qui ne te connaissent pas ?
- Speaker #1
Alors, pour ceux qui ne me connaissent pas, aujourd'hui, on est à la Station F. Donc moi, pour être à la Station F, j'ai une startup qui s'appelle Draft & Goal, qui a d'abord été créée au Canada il y a trois ans. Cette startup, qu'est-ce qu'elle fait ? Elle aide à transformer, on va dire, des process métiers en workflow IA. Donc on a un go to market autour du marketing et on va peut-être sûrement en parler. Et moi ce que je fais, c'est simple, je suis founder et j'ai cette casquette de CTO, de directeur technique.
- Speaker #0
Depuis combien de temps ?
- Speaker #1
Depuis 3 ans, mais bon, il faut savoir que bien avant j'ai travaillé pour pas mal de grands comptes, pour M6, pour OVH, j'ai déjà eu une autre startup, donc depuis longtemps. On ne va pas donner notre âge, sans s'en oublier.
- Speaker #0
Donc tu as un bagage de data scientiste. Exactement. Tu es biberonné à l'IA depuis que ça existe quasiment, enfin en tout cas depuis très longtemps parce que ça existe un peu avant nous, mais globalement ça fait longtemps que tu es IA friendly. Exactement. Depuis,
- Speaker #1
j'ai vraiment commencé en 2016 où j'avais lancé un petit concept qui s'appelait le Data SEO, c'était faire du SEO avec de la data science.
- Speaker #0
Et je m'en rappelle.
- Speaker #1
Et j'ai vu toutes les évolutions et même après des conférences Data SEO au SEO camp. J'ai changé de sujet, après je suis passé sur la Genieye.
- Speaker #0
Pour ceux qui nous écoutent, pour essayer de ne pas partir trop haut, est-ce que tu peux nous vulgariser un peu le fonctionnement d'une IA ? On entend beaucoup parler, les gens en parlent tout de suite comme des experts. On a un peu du During Trigger qui arrive comme effet. Est-ce que tu peux nous simplifier un peu les IA de les premières versions de GPT qui avaient leurs défaillances ? qui disait que le président de la France était un président qu'il y avait eu il y a 4 ans, pourquoi ? Et puis comment aujourd'hui les IA globalement fonctionnent dans la grande ligne ? Pour vulgariser, pour expliquer au plus grand nombre, qu'est-ce que c'est que cette technologie qui arrive sur le marché, ou en tout cas dont on parle toutes les 5 minutes ?
- Speaker #1
Alors là on parle de Tchad GPT, parce qu'il y a plein de types d'IA. On dit LLM, Large Language Model, donc c'est des modèles de langue. Donc qu'est-ce que c'est une IA ? C'est très simple, on a pris l'intégralité d'Internet, de YouTube. pour l'entraîner et on l'entraîne à faire quoi des prédictions ça veut dire on lui apprend à parler on lui apprend à communiquer maintenant lui apprend à comprendre les vidéos on lui apprend à générer des images dont je vais pas rentrer dans les on va dire dans la technique mais voyez ça comme un super outil qui fait des prédictions si on dit on écrit christophe colomb a découvert l'amérique en bas par rapport à toutes ces données elle va être capable de dire 1492 parce que c'est C'est ça qu'elle trouve dans son réseau de neurones.
- Speaker #0
Moi, j'ai eu la chance de creuser un petit peu le sujet avec toi. J'ai appris plein de choses passionnantes. Donc, moi, ce que j'ai compris, c'est que dans les premières versions de LLM, on avait déjà deux façons de faire dans les papiers de recherche qui sont faits de plus en plus rares. C'est quelqu'un de Facebook qui avait témoigné là-dessus que quand ils se sont lancés, c'est le moment où c'était le boom. Et ils avaient lancé d'ailleurs une IA qui s'appelait Galantica. Mais pour les papiers de recherche, on va passer ce passage. Donc ce que j'ai compris, c'est qu'on avait deux façons. Une façon où on pouvait finalement écrire un prompt, écrire une réponse et entraîner les IA là-dessus. Ce qui s'appelle du supervisé, je crois, quelque chose comme ça. Et LFRH, échaffer, comment on dit déjà ? Je ne sais plus, une autre technique.
- Speaker #1
C'est ça, en France, mon learning. Voilà,
- Speaker #0
merci, tu le prononces mieux que moi. Où en gros, l'idée, c'est de dire, donne-moi deux réponses, l'IA, et c'est moi qui vais choisir laquelle je trouve la plus pertinente. D'accord ? Alors la personne de Facebook, elle dit quelque chose de passionnant, elle dit moi j'avais choisi la première version. Alors pardonnez-moi j'ai oublié son nom et son prénom mais je pourrais mettre la référence du podcast dans les commentaires, enfin dans les descriptions. Et en gros elle dit moi j'étais parti plutôt sur du l'humain à mort puisque c'est la data la plus raffinée. Et en fait, il s'est rendu compte que la deuxième façon de travailler était la plus performante. Et c'est plus facile pour un humain de discriminer, par exemple si on nous demande de faire un poème sur les LLM, et bien on va tous les deux peut-être un peu galérer parce qu'on est ni fort en poème ni en LLM, mais là on nous demande de faire du français, et discriminer les deux, c'est plus facile que de les créer de zéro. On est aligné là-dessus ? Oui,
- Speaker #1
complètement aligné. Alors attention à tous les raccourcis, si tu veux vraiment rentrer dans le détail, c'est que... Nos mots sont transformés en tokens, chaque token a un identifiant, l'identifiant passe dans un espace latent. Et en fait, on essaye, à partir de ce que tu as mis dans le prompt, de retrouver les tokens les plus proches dans l'espace latent pour faire des prédictions et pour te répondre. Ce que tu parles, les renforcements learning, c'est pour se faire ce qu'on appelle de l'alignement. Parce qu'en fait, on veut que l'IA réponde d'une certaine façon. Et il y a un vrai sujet aujourd'hui, parce qu'on parle de biais. Et une IA américaine ne répond pas comme une IA française, comme une IA russe ou comme une IA chinoise. D'accord, hyper intéressant. C'est vraiment l'alignement qui est stratégique pour les entreprises. Et d'ailleurs, on peut en parler plus tard, on peut désaligner des IA.
- Speaker #0
D'accord, très bien. Hyper clair. Donc c'est vrai que c'est un système qui est assez incroyable. Ce qui me semble, c'est que vous avez donc, vous, passé à un cap depuis d'ailleurs plusieurs années, mais pour le grand public, on va en reparler, c'est... C'est la notion d'agent. Oui. Alors ça, est-ce que tu peux nous en parler un petit peu et nous expliquer c'est quoi un agent par rapport à une IA ?
- Speaker #1
Alors si je dois faire très simple, un agent, c'est un LLM souvent, donc c'est une IA qui utilise des outils. Et donc par exemple, nous dans le cadre du SEO, elle va utiliser un scrapper pour aller chercher des informations sur un site web, elle va utiliser une recherche sur Google pour savoir ce qu'il y a dans les SERP, elle va utiliser un outil pour compter les mots parce que les IA ne savent pas compter les mots. En fait, un agent peut utiliser 10, 20 outils différents pour remplir des objectifs hyper précis. Et c'est là où les métiers sont en train de changer, parce qu'il y a énormément de choses qu'on peut confier à des agents.
- Speaker #0
Ok, hyper clair. Et donc, comment vous gérez justement la notion d'hallucination ? On en parle beaucoup dans les IA, c'est le fait qu'une IA peut partir dans une direction qui n'est pas la bonne, voire même dire quelque chose de faux. Donc ça... Est-ce que tu peux nous en dire un petit peu plus ? Parce qu'évidemment, c'est un peu la bête noire d'une entreprise, d'un agent ou d'un workflow. C'est d'éviter qu'au bout d'un moment, ça dise des choses fausses et que ça s'enraye.
- Speaker #1
Alors, là aussi, on peut remettre, on va dire, la vérité au centre du village. Il y a deux choses. Avant, on utilisait seulement un LLM pour obtenir une réponse. Mais les datasets dataient de plus de six mois. Il y avait des biais et surtout... Quand dans ton dataset tu as des informations contradictoires, même pour un humain c'est difficile de choisir. Aujourd'hui il y a eu des techniques qui sont apparues où maintenant on utilise on va dire du RAG, on va dire on utilise des bases de données pour répondre. C'est à dire qu'on n'utilise pas que le LLM, on utilise un agent qui va interroger des bases de données, on va être entre guillemets certifié, il va par exemple aller sur wikipédia pour te répondre. Et nous comment on fait pour garantir la réponse finale, c'est qu'on va pas utiliser une source de données, on va en utiliser plusieurs. Pour te répondre, on va regarder des documents internes à l'entreprise, des documents externes. Et si l'agent n'arrive pas à croiser les sources, il ne va pas utiliser cette donnée. C'est comme ça qu'on réduit les hallucinations. Moi, quand j'étais Head of Data, c'est exactement ce que je faisais dans l'entreprise. Je croisais les données pour être sûr d'avoir la bonne réponse. Donc ça, ça marche extrêmement bien.
- Speaker #0
Et on peut réduire de façon drastique le risque d'erreur ?
- Speaker #1
Complètement. Tu réduis fortement en croisant les sources.
- Speaker #0
Alors justement, tu parlais de Head of Data, peut-être que tu peux un peu nous resituer, toi tu as une carrière, un poste qu'on appelle Data Scientist, c'est comme ça qu'on le nomme, est-ce que tu peux nous dire c'est quoi un Data Scientist, et puis surtout peut-être nous parler un peu d'évolution de ton métier sur les dernières années, est-ce que les outils sont les mêmes, les réflexes sont les mêmes, les demandes sont les mêmes, montre-nous un peu ce métier qui est assez nouveau peut-être pour ceux qui nous écoutent.
- Speaker #1
Alors Data Scientist, j'aime bien dire que c'est un super développeur, et ça, complètement changé au fil des années. Moi, je me rappelle, en 2016, on utilisait des algorithmes, on va dire de machine learning, mais pour faire quoi ? La classification, la clusterisation, pour être capable de détecter des anomalies, faire du forecast. Ces techniques, aujourd'hui, elles existent toujours, mais maintenant, le data scientist d'aujourd'hui utilise énormément la GenieEye. Il va utiliser des modèles pour faire ce qu'on appelle du NLP avancé, donc du traitement du langage, et c'est tout ce que tu as cité, c'est avec les promptes, etc. Mais, Le métier de data scientist aujourd'hui a fortement changé parce qu'il y a deux choses qu'il fait. Maintenant, c'est le data scientist qui entraîne des modèles, donc il va les spécialiser pour son entreprise. Je ne sais pas, d'un seul coup, tu veux générer des images parfaites de cravate. Peut-être que les modèles de génération d'images actuelles, ils ont des petites faiblesses, donc tu vas avoir un modèle spécialisé. Mais où le métier de data scientist a complètement changé, c'est que maintenant, tu as ce qu'on appelle l'EI coding. Donc là où avant les data scientist on devait créer des tonnes de code source qu'on appelle des Jupyter Notebook, aujourd'hui l'IA te génère ton code. Et en fait on est plus dans des data scientist, on réfléchit moins sur le code mais on réfléchit beaucoup sur l'algorithmie, les performances, la sécurité, éviter les biais etc. On a vraiment un switch où le métier et moins technique.
- Speaker #0
Après la hauteur, sans vouloir dénigrer la technique.
- Speaker #1
Je trouve qu'on fait des choses beaucoup plus intéressantes. Parce que les techniques de clusterisation, ce n'était pas très amusant. Tu avais ton mode d'emploi, tu écrivais ton code Python, tu l'exécutais, tu essayais d'améliorer les performances, tu testais des modèles différents. Et déjà, à cette époque-là, il y avait des plateformes comme DataIQ qui assistaient les data scientists. C'est ce qu'on a appelé le AML, l'Automated Machine Learning. Maintenant, c'est la genie qui te génère ton code et tu fais des choses encore plus intéressantes.
- Speaker #0
Essentiellement.
- Speaker #1
Est-ce que je dis ce qui est vrai sur les data scientists,
- Speaker #0
c'est vrai pour les développeurs ? Oui, bien sûr. D'ailleurs, puisqu'on est un peu sur le sujet, on parle de métiers qui disparaissent. L'IA fait de la rédaction, elle fait du code. C'est quoi ton point de vue là-dessus ? Il faut accepter qu'on passe de l'argentique au numérique pour l'appareil photo, puis c'est comme ça. Et maintenant, plus personne ne va dépenser... son appareil argentique pour faire développer ses photos, ou c'est une autre façon de voir les choses par rapport, par exemple, à ces deux métiers, le développement et la rédaction ?
- Speaker #1
Moi, j'aime pas le mot disparaître, je préfère le mot évoluer. C'est-à-dire que maintenant, tu fais des choses beaucoup plus intéressantes, et croire qu'on travaille moins, c'est faux. En fait, les humains, maintenant, ils font de plus en plus de choses avec la Genieye. Parce qu'on se rend compte qu'au lieu de faire un projet, on est capable d'en faire dix en parallèle. Eh bien, partons sur dix. mais tu travailles tout autant, ton métier il travaille pas, et par contre t'es beaucoup plus productif, donc c'est là où il y a un changement de paradigme, est-ce que certains métiers sont touchés ? Oui les métiers de traducteur etc là il y a un vrai sujet, ceux qui faisaient de la rédaction offshore il y a un vrai sujet, mais ceux qui font de la rédaction de qualité en France pour moi ils sont même pas concernés en fait donc il faut faire attention aux mots qu'on utilise Parce qu'une IA ferait pas de la rédaction de qualité ? En fait, l'IA, elle a des parties qui lui échappent. C'est tout le côté émotionnel, psychologique, politique. Tu vois, ces sujets-là, si tu veux faire du contenu evergreen, oui, prends une IA, elle va le faire très très bien. Mais il y a des choses que l'IA ne sait pas encore faire. Et dire que l'IA sait tout faire aujourd'hui, c'est complètement faux.
- Speaker #0
On l'entraîne beaucoup. Dans les dernières versions vocales de ChatGPT, j'ai vu des systèmes d'inférence où, par exemple, l'IA va mettre des temps. comme ça pour te répondre et toi tu me vois donc tu attends ce que je vais te dire, t'es pas stressé parce qu'on est en train de discuter j'ai même vu dans la dernière version elle fait des... en fait comment dire... ça s'appelle des anématopées et ça c'est vrai que c'est bluffant parce que moi évidemment ça m'a entre guillemets choqué parce que je me dis ça y est on se rapproche,
- Speaker #1
on a de moins en moins un truc mais quand il y a un concept qui s'appelle la vallée de l'étrange, quand tu sens que c'est pas un humain qui parle et que tu t'en rends compte, ça te déroute
- Speaker #0
complètement.
- Speaker #1
Et il y a des métiers, tu vois, les sales, oui, c'est de la consommation, il n'y a pas de sujet. Mais si tu as envie de t'acheter une belle voiture et que tu te rends compte que tu discutes avec une IA, ça va créer un sacré malaise. Le support, hier, j'avais un problème avec mon hôtel et je me retrouve face à un chat GPT sur WhatsApp. J'étais vraiment furieux, en fait. Parce que j'avais besoin d'un humain. Toi,
- Speaker #0
là, me relire. Oui,
- Speaker #1
mais il y a des choses où on ne doit pas mettre d'IA, en fait.
- Speaker #0
Alors justement, on peut peut-être en parler un petit peu de ça, de cette notion des données, de quand est-ce qu'on doit mettre l'IA ou pas. Déjà, est-ce que donc il y a un sujet sur la sécurité ? Est-ce que pour toi les IA c'est sécurisé ? Par exemple si je m'épanche avec mon IA sur mes problèmes de cœur et que j'ai pas envie que ça, mes problèmes personnels, alors on peut parler d'amour, on peut parler d'argent, on peut parler de plein de choses. Pour toi, est-ce que tu dirais, je vais te faire un peu une réponse A et B, et puis sûrement que tu pourras en créer une C, est-ce que tu dirais, ah, non, non, en fait, il n'y a aucun problème, c'est total, c'est très étanche, alors oui, c'est envoyé en Etats-Unis, mais les Etats-Unis probablement font en sorte que, ou quand tu dis, non, non, rien de personnel sur des IA, faites attention, vous ne vous rendez pas compte du danger que vous prenez, ou C, troisième réponse ?
- Speaker #1
Excellent. Effectivement, il y a plusieurs réponses. Quand tu es sur des abonnements payants, et c'est spécifié dans les conditions, donc là je ne peux pas parler de Gemini ou de ChatGPT, etc. Dans leurs conditions générales de vente, ils disent attention là vos données sont utilisées. Mais c'est spécifié, il y a toujours moyen, même quand ils disent attention on prend vos données, de dire moi je ne veux pas que mes données soient utilisées. Mais de toute façon, qu'est-ce qu'on dit sur une version gratuite ? Si c'est gratuit, c'est toi le produit.
- Speaker #0
C'est toi le produit, exactement.
- Speaker #1
Ça c'est vrai. Par contre, nous en entreprise, on utilise des versions payantes, des versions premium des versions qui ne sont même pas sur des API publiques, qui sont sur des API privées. Et là, effectivement, il n'y a absolument rien. Des moments où tu utilises GCP, Azure, avec des modèles qui sont hébergés chez eux que pour l'entreprise. il n'y a aucun risque de fuite c'est leur crédibilité qui en ligne et qui en jeu et c'est vrai que non pour moi il n'y a pas de sujet mais il faut bien lire les petites lignes de l'IA que tu utilises et ce que tu me dis sur les serveurs américains c'est peut-être aussi vrai sur des sur des IA open source c'est même si c'est sur ton ordinateur faut faire attention à ce que tu mets sur ton ordinateur s'il y a quelqu'un qui vient le récupérer potentiellement il a accès à tous tes logs, à tout ce que tu as dit. Et tu vas me dire mais comment il va le récupérer ? Un hacker.
- Speaker #0
Tout à fait.
- Speaker #1
Et le point névralgique des IA, c'est ce qu'on appelle le RAG. L'IA stocke un historique, une base de données. Que ce soit sur des IA open source sur ton ordinateur ou à distance. Et cet historique, à tout moment, tu peux demander de le supprimer ou pas.
- Speaker #0
Est-ce que vous avez déjà eu ce problème-là chez Draft & Goal d'un client qui vous dit moi je veux tout ce workflow ? Par contre, je ne veux pas que les données que je vous donne en entrée puissent être récupérées par des concurrents. Donc, démerdez-vous, mais vous n'utilisez que des choses propriétaires. Nous,
- Speaker #1
et c'est un vrai sujet, surtout pour les grands comptes, on travaille pour énormément de grands comptes, soit c'est « on-premise » , c'est tout est dans leur infrastructure, il n'y a rien qui rentre, il n'y a rien qui sort, parce que tu peux partager maintenant, c'est des PDF, des documents ultra-confidentiels, donc tout est chez eux, ou soit on a une version SaaS, et pour cette version SAC, maintenant tu as des compliances. qui sont SOC2, ISO 27001, SETA, on pourrait même parler la GDPR, RGPD en français. Et oui, c'est un enjeu essentiel.
- Speaker #0
Et du coup, ça se passe comment d'un point de vue LLM ? Vous avez des LLM qui sont autonomes ?
- Speaker #1
On a des LLM qui sont regardés qu'à certains clients.
- Speaker #0
Et qui sont sur des serveurs à vous, entraînés ?
- Speaker #1
Soit à nous à part, ou soit chez eux et dans leur infrastructure. Mais c'est un énorme sujet. et c'est pour ça que face à des solutions comme MEC, Zapier et compagnie N8N, où vont les données ? Parce que dedans, tu mets plein d'API. Est-ce que potentiellement, tu ne trouves pas des brèches de sécurité ? Et nous, c'est tout un service et plein de discussions avec la DSI.
- Speaker #0
Je pense que ça, c'est une question que beaucoup de gens se posent. À partir de quel investissement, quelle taille d'entreprise, quelles conditions, une boîte peut se dire « Bon, j'ai envie d'avoir mon LLM pour des raisons, simplement parce que c'est mes outils ou c'est les datas de mes clients que je ne peux pas exposer à des LLM type cloud, anthropique et les autres, peu importe. C'est quoi la barrière à l'entrée pour faire ça ? Est-ce que c'est facile ? Est-ce que c'est cher ? On a entendu qu'il y avait des Mistral qui pouvaient tourner sur des ordinateurs portables en local pour les premiers modèles. Est-ce que tu peux nous éclairer là-dessus ?
- Speaker #1
Et encore une fois, l'ordinateur portable, ça ne préserve pas de se faire attaquer,
- Speaker #0
prendre les données. Mais ça, c'est un risque dans tous les cas.
- Speaker #1
Est-ce que c'est cher ? Oui, c'est un métier à part entière. il te faut un spécificité spécialistes de la data. Pourquoi moi j'étais Head of Data ? Parce que j'étais responsable des données, leur gouvernance, où elles se trouvent, comment on les utilise, etc.
- Speaker #0
Donc c'est pas du tout à la portée de chacun.
- Speaker #1
Non, je pense pas que ce soit à la portée et je pense qu'aujourd'hui c'est plutôt les modèles d'IA qui font attention à ta place, qui réfléchissent, qu'est-ce qu'on utilise, qu'est-ce qu'on n'utilise pas, qu'est-ce qu'on peut utiliser. Et il y a plein en Europe, on est bien protégé, c'est à plein de lois, d'IA Act, etc. qui viennent renforcer tout ça.
- Speaker #0
Est-ce que ça existe des boîtes qui sont spécialisées pour justement, je t'installe ton LLM chez toi, parce que ça doit être un... T'en connais ?
- Speaker #1
Ah oui, il y en a énormément sur le marché. Et nous, indirectement, on le fait. Nous, c'est juste qu'on met en place des workflows. Mais derrière, c'est on se connecte où, on utilise quel LLM, quelles conditions, quelle route, quel outil. Et tu vois, est-ce que t'as entendu parler, c'est peut-être un tout petit peu tech, le fameux MCP.
- Speaker #0
Oui, on l'utilise nous avec Claude.
- Speaker #1
Et bien, quelqu'un de mal intentionné. Il peut prendre toutes tes données en fait, parce qu'ils sont peu sécurisés à l'heure actuelle. Donc oui, il va y avoir des MCP de plus en plus sécurisés, mais il y a des vrais sujets sécurité.
- Speaker #0
Donc le MCP, pour ceux qui nous écoutent, tu vas me corriger, mais en gros, c'est un espèce de protocole qu'on met au milieu, qui est plus facile, qui lui discute facilement. Alors moi, je ne l'utilisais qu'avec Cloud et une infrastructure de data comme Google Search Console. Ce qui fait que moi, avec mon Cloud aujourd'hui, on est en train de le faire sur la R&D de Plex. Je dis à Claude, tiens donne moi les requêtes sur lesquelles je pourrais m'améliorer, pour lesquelles j'ai un mauvais CTR. Il me fait un tableau, des recommandations, etc. avec de la donnée. On est aligné là-dessus ?
- Speaker #1
On est complètement aligné. Et donc là tu as un système d'agent très simple. Nous c'est juste que comme c'est de l'agent TKI, on a plein d'agents différents qui communiquent avec des outils sécurisés. Mais moi ce que je n'aime pas dans le MCP, c'est que ce n'est pas assez sécurisé.
- Speaker #0
Dans quel sens ? C'est un serveur qui se hack facilement, qu'est-ce qui n'est pas assez sécurisé ?
- Speaker #1
Le code, les performances, qui l'utilise, comment tu l'utilises. En plus, est-ce que tu as vraiment un système de log pour savoir ce qui est demandé ? Est-ce que tu es certain que tous tes employés qui utilisent ce serveur MCP ne vont pas chercher tes comptes ?
- Speaker #0
Pour l'instant, c'est que moi. Ah,
- Speaker #1
c'est que toi ?
- Speaker #0
Oui, oui. Pour l'instant, c'est de la R&D.
- Speaker #1
Quand c'est dû à un point, il n'y a pas trop de sujets. mais quand ça va commencer à être déployé dans une entreprise il faut faire attention
- Speaker #0
Pour répondre partiellement à ta question, par exemple sur cloud on peut désactiver des fonctions qui sont sensibles comme efface, modifie. Moi je lui ai dit si on te demande de delete, bah en fait t'en parles pas.
- Speaker #1
Et après les gens ils oublient mais les agents consomment énormément de tokens, parce que t'as plein d'aller-retour entre l'outil ou le MCP et le LLM. Et ça il faut faire extrêmement attention parce que des fois ça peut tourner en boucle infinie. Et puis après, tu attends la facture à la fin du mois. Donc nous, c'est des choses qu'on traque. C'est des choses où on a énormément de garde-fous pour éviter justement qu'un agent, on appelle ça un comportement divergent, aille dans une direction impossible et infime.
- Speaker #0
Alors donc, tu sais, nous on fait beaucoup de SEO. On en a parlé un peu ensemble avant de préparer ce podcast, une agence IA, parce qu'on nous en demande de plus en plus. Et finalement, chez Applist, nous, on est agnostique du moteur de recherche. On n'est pas brandé Google, brandé Bing. où on est capable de faire... De l'acquisition sur beaucoup de canaux. En France, Google est quand même assez majoritaire, donc c'est difficile de l'ignorer. Mais on essaye de faire ça vis-à-vis d'un algorithme et d'un moteur de recherche. Vous, est-ce que vous avez déjà, justement, tu parlais de MCP, de Google, et moi je parlais de Google Search Console. Est-ce que vous avez déjà, du coup, exploré un peu ça ? C'est-à-dire, d'un côté, j'ai ma GSC avec de la data, qui est quand même, a priori, globalement raffinée, puisqu'on sait que la... La Search Console n'est pas liée à un tag JavaScript comme Google Analytics qui capterait des trucs. C'est vraiment de la data poussée directement des entrepôts de Google. Et donc, c'est souvent intéressant, même si c'est une data qui est samplée. Est-ce que vous, vous avez déjà fait un peu des expérimentations dans ce sens, dans l'ESIO ? Est-ce que tu peux nous en parler ?
- Speaker #1
Énormément. En fait, on a parlé du métier de data scientist, mais il y a aussi le métier de data analyst. Et avant, on avait ce qu'on appelait un data lake, c'est-à-dire on envoyait toutes les données. Tu t'es parlé de la Search Console, mais il y a Google Analytics, il y a Google Ads, il y a plein de produits. Et en fait, les agents sont très forts pour aller chercher les bonnes données, donc faire eux-mêmes des requêtes SQL, récupérer ces données et après te dresser des rapports pour le COMEX, etc. Et on a plein de grands comptes qui nous demandent, le lundi à 8 heures, on veut avoir un workflow qui génère tel rapport. Donc avant, tu avais un humain qui qui passait une à deux heures de son temps pour faire le rapport COMEX. Maintenant, c'est automatisé et ces deux heures, il va en profiter pour faire autre chose, encore plus intéressant. C'est là où ça change complètement. J'ai fait d'ailleurs une formation là-dessus sur LinkedIn autour de comment évolue le métier de la data analysis.
- Speaker #0
Oui, d'ailleurs, j'en profite pour te faire un peu de pull. Tu as des formations passionnantes sur LinkedIn qui sont ouvertes. On peut les prendre. un petit coup à l'entrée mais qui n'est pas très important par rapport à toute la connaissance qui est donnée. Je crois que tu les mets à jour, je crois que tu as communiqué il n'y a pas longtemps en disant les choses évoluent donc je travaille pour les mettre à jour. Et donc j'encourage nos auditeurs à aller regarder ça parce que c'est assez passionnant. Dans mon métier par rapport à l'IA, ce qui se dit un peu c'est, voilà, c'est un peu ce qu'on disait avec TikTok et les réseaux sociaux, c'est que les jeunes n'utilisent plus Facebook, les gens utilisent Instagram très bien. Et bien sûr que les choses évoluent. Dans quelle mesure tu penses que les gens vont se désintéresser de Google au profit d'une IA qui va elle-même te dire « Va dans tel hôtel, n'oublie pas de faire le checking à telle heure parce que c'était ton allé à faire tout ça. » Et du coup peut-être délaisser majoritairement des outils comme Google où en fait on faisait des recherches et on faisait son projet un peu plus à la mano. Google était un tiers de confiance. Lui, il nous donnait une data raffinée, vraiment des sites qui étaient censés être les meilleurs par rapport à ce qu'on cherche. Et toi, est-ce que tu... C'est quoi ton état d'esprit sur... Moi, ça fait des années qu'on me dit que le SEO est mort. Je veux bien avoir ton avis là-dessus.
- Speaker #1
Ok. Alors, excellente question. Alors déjà, on ne se délaisse pas de Google parce que Google évolue et il intègre l'EI Overview, l'EI Mode.
- Speaker #0
Il n'est pas resté là.
- Speaker #1
Ils sont déjà prêts et ils ont certainement, si on rentre dans la technique, la meilleure façon de faire d'un point de vue moteur de réponse. Donc oui, les moteurs de recherche évoluent, ils deviennent des moteurs de réponse. Moi, mon positionnement, c'est Google qui a inventé le concept il y a plus de 15 ans. Il parle du SMOT, c'est écrit Z-M-O-T, c'est Zero Moment of True. Et en fait, ça consiste à dire que quoi que tu fasses, tu ne vas pas te contenter que d'une recherche Google. Tu vas aller peut-être sur les réseaux sociaux. et tu vas peut-être demander maintenant à ChatGPT, tu vas croiser et en tant qu'humain tu vas prendre la bonne décision. Ce qui est inquiétant, c'est par rapport aux nouvelles générations. Les nouvelles générations, moi j'ai une fille de 16 et une autre de 19, elles consomment exclusivement du ChatGPT et on va dire des TikTok ou équivalents. Et là, il y a un vrai sujet, c'est que sur du moyen long terme, forcément c'est eux qui vont... incité à utiliser de plus en plus ce type d'outils. Ma vision personnelle, c'est que ça détruit l'esprit critique. Du moment que tu as une IA qui te prémâche une réponse, même en citant les sources, les gens sont fainéants, ils n'ont pas envie d'aller vérifier les sources. Et donc, ça veut dire des techniques de manipulation qu'on ne sera plus capable de déjouer dans le futur. Donc, oui, nous, on utilise beaucoup de sources. Nous, on va faire du bouche-à-oreille, etc. Mais sur les nouvelles générations,
- Speaker #0
c'est clair que ce petit village,
- Speaker #1
ça va exploser. Et on le voit, les gens préfèrent la vidéo à lire. Maintenant, les gens préfèrent une réponse d'IA à cliquer sur 10 liens différents et à se forger un avis. Donc ça, c'est le sens de la marche, tu ne peux pas le changer.
- Speaker #0
Alors justement, on va rester sur l'esprit critique et après, je voudrais qu'on reparle un tout petit peu de Google et de sa force et de son évolution parce qu'il y a des choses sur lesquelles je veux avoir ton avis. Mais on va rester un tout petit peu sur l'esprit critique parce que ça, c'est très important. Ce qu'on se dit globalement, c'est que toi et moi, on a déjà fait des rapports de stage, on a déjà fait un certain nombre de choses qui demandaient du temps et de l'énergie, on l'a fait à la main, et que maintenant, quand on demande quelque chose, et d'ailleurs la plupart du temps, quand on demande quelque chose à l'IA, on a quand même une idée de ce qu'on lui demande, etc. Du coup, ça c'est quand même quelque chose d'un peu flippant de ce que tu dis, parce que si on perd l'esprit critique, on perd un atout majeur de l'être humain. Donc toi, est-ce que tu as une petite idée de, je ne sais pas, soit un peu en digues et ça, ou au moins enseigner à nos enfants, ou en tout cas à travers des formations à nos générations en faisant de la prévention. L'Europe est en quelque sorte aussi un peu réfractaire sur l'IA, elle se protège d'une certaine façon, mais c'est peut-être plus d'un point de vue donné. Mais il y a quelque chose de l'éthique dont on parle beaucoup dans l'IA. Il y a cette notion de préprompte aussi, qui est quand même important, dans lequel on va dire à une IA, ne fais pas ci, ne fais pas ça. mais sans aller dans, il faut que je me concentre sur un Je vais te parler juste sur l'esprit critique. Pour toi, là-dedans, est-ce qu'il y a un vrai danger là-dedans ? Et si oui, est-ce que tu penses qu'on peut faire en sorte que les nouvelles générations gardent des garde-fous dans l'utilisation de ces nouvelles technologies ? Est-ce que c'est des choses qu'elles t'ont pensées avec tes enfants ? Est-ce que tu les sensibilises ? Est-ce que tu es sûr de ce que tu dis ? Parce qu'une IA peut se tromper. Je suis bien passé pour te le savoir. pour te le dire ?
- Speaker #1
C'est une très bonne question. Alors, c'est très personnel ce que tu me demandes. Mais moi, je pense que c'est le rôle d'un mentor. C'est le rôle d'un parent d'enseigner cet esprit critique. Je pense que c'est ce qui nous rend profondément humains. Ça veut dire, et moi, je l'ai vu pour ma startup, tout le monde disait commencer par le bas du marché. Nous, on a commencé par les grands comptes. Tout le monde disait d'être générique. Nous, on a décidé de se spécialiser en marketing. Et tu vois, c'est notre esprit critique qui nous a guidés. Et ça, ça s'apprend, heureusement. Mais par contre, je vais te reprendre l'exemple du GPS. Aujourd'hui, tout le monde allume son GPS, plus personne ne sait se guider. Moi, hier, pas de chance, plus de connexion, je n'avais pas de GPS. J'ai quand même trouvé mon hôtel parce que nous, on a le réflexe d'aller voir les cartes, de demander aux gens et on va se retrouver. Mais ça, je trouve que c'est des soft skills qu'on va continuer d'apprendre et qui peut-être même seront enseignés à l'école, cet esprit critique.
- Speaker #0
Et donc, du coup, sur un autre aspect, le côté éthique, c'est-à-dire, les gens ne le savent pas forcément, mais on s'en fait de ma part, donc on met un pré-prompte dans les IA pour quand même brider un peu l'IA sur un certain nombre de choses. On n'a pas envie qu'une IA soit raciste, par exemple, et probablement qu'une IA sans aucun pré-prompte pourrait tout à fait avoir des propos racistes, ne pensant pas forcément à mal, ça je ne sais pas très bien. Alors,
- Speaker #1
les garde-fous, ils ne sont pas seulement dans le pré-prompte, ils sont aussi dans les données d'entraînement. En fait, ce que tu vas éviter, c'est que dans... tes données d'entraînement, tu as des propos racistes, parce qu'Elia apprend à partir de tes données d'entraînement, elle ajuste son réseau de neurones, et donc même si tu avais un pré-prompte, il suffirait de l'enlever ou de le modifier les jambes.
- Speaker #0
On a même avec des IA, on va dire, alignés, on arrive quand même à leur donner des comportements divergents. Donc non, moi je pense que c'est l'utilisateur final qui doit être hyper sensible au fait qu'une IA peut se tromper, comme un humain peut se tromper.
- Speaker #1
Sachant que souvent, on peut diaboliser un peu ces outils-là, mais moi je trouve ça aussi idiot de diaboliser une IA que de diaboliser le couteau qui a servi à tuer quelqu'un. C'est un couteau et c'est la personne qui s'en sert qui est coupable, c'est pas l'objet en lui-même.
- Speaker #0
Exactement, et c'est vrai que ça reste qu'un outil.
- Speaker #1
Ça reste qu'un outil. Sur la dernière partie, on va parler un peu de Google et de manipulation des LLM, parce qu'on va pas se mentir, beaucoup de marques disent tiens, moi je vends des canapés convertibles, je m'appelle la maison du convertible et j'aimerais bien apparaître autant de fois possible. Est-ce que toi, tu as des conseils à nous donner par rapport à le fait d'optimiser sa présence dans les LLM ? Parce que si on se dit que les LLM sont sur des données d'entraînement qui sont terminées, on se dit qu'a priori, on ne peut plus agir sur ces données parce qu'elles ont servi d'un corpus d'entraînement. Et donc, ça a eu un début, ça a eu une fin. Soit j'étais dedans, soit je n'y étais pas. Et donc, j'y étais peut-être à un tiers, je dis n'importe quoi, ou rarement. Donc, j'apparais rarement. Comment on peut travailler sa présence dans les moteurs de
- Speaker #0
LLM ? C'est une très bonne question. Selon ton secteur d'activité, tu ne fais pas du tout la même chose. Ça veut dire que les LLM utilisent des bots qui vont aller consommer du web et l'enregistrer pour leur donner d'entraînement. Alors que les gens sachent bien, c'est long. On parle de quelques mois à chaque fois. Et il y a certains sites qui ont tout intérêt à bloquer leurs données. parce qu'elles sont uniques, originales, etc.
- Speaker #1
Et ça, c'est respecté ?
- Speaker #0
Oui, il faut les bloquer avec des trucs assez intelligents parce qu'on est persuadé que certains LLM ne respectent pas du tout le robot TXT et compagnie. Mais normalement, c'est bloqué. Par contre, dans les Ausha de GPT, etc., on voit qu'il a accès à des informations où normalement il ne devrait pas y avoir accès. Et ça s'explique, c'est que ces données d'entraînement, ça s'appelle Common Crawl, donc c'est le fameux site archive.org. qui met à disposition des datasets et dans ce dataset il y a un peu à boire et à manger. Donc tu prends le dataset, tu fais un énorme tri qualité, justement des propos injurieux, racistes, les données qui seraient dans le dataset tu n'aurais pas vraiment le droit, les problèmes de droits d'auteur et après tu entraînes ton ADN. Donc ça tu vois c'est ces bots d'indexation pour le modèle d'entraînement. Pour moi il y a certains secteurs d'activité je veux dire bloqués et d'autres je vais dire non, vous pouvez laisser parce qu'on peut retrouver la donnée de ce genre. Par contre, il y a un autre type de bot que les gens oublient, c'est ce qu'on appelle l'instant bot. Je ne sais pas si des fois, quand tu utilises Cloud ou ChatGPT, il se dit mince. Ici, c'est de la donnée d'actualité où j'ai un petit doute, on me demande un prix. Et là, il part sur votre site web. Et c'est là où c'est intéressant de se dire, là, il faut le laisser passer. Il faut le laisser passer, comme ça, il récupère l'information. Il dit que votre produit, c'est le moins cher. Et par contre, après, pour acheter, pas trop le choix. Il va falloir cliquer sur le lien. et ça vous donne de la visite.
- Speaker #1
Donc les nouveaux et les LEM se mettent à jour en temps réel.
- Speaker #0
Ils vont chercher l'information quand ils en ont besoin.
- Speaker #1
Mais alors du coup, s'ils vont chercher l'information, ils vont faire une requête dans Google ou dans Bing ?
- Speaker #0
Alors là, je peux répondre, parce que je suis en train de créer une formation là-dessus. Quand c'est SearchGPT, par exemple, soit il va dans Bing, il va dans l'index de Bing, parce qu'ils ont un partenariat, soit ils ont créé un moteur de recherche interne, parce qu'ils ne veulent pas être dépendants, qui s'appelle Fortis. ou soit ils ont encore un autre moteur qui est un peu plus obscur où ils peuvent aller chercher des informations spécialisées. Et en fait, selon que tu t'adresses quand tu utilises Gemini, là, tu pourrais penser qu'il va dans l'index de Google. Oui, mais pas seulement. Il va aussi dans ce qu'on appelle Live Knowledge Graph. Donc en fait, il va dans un Knowledge Graph qui est mis à jour en temps réel pour consommer de l'information. Et c'est pour ça que Google, Gemini, sur, on va dire, quand tu l'interroges sur de l'actualité récente, est clairement le meilleur. Parce que Google, c'est leur boulot depuis l'origine. Et après, Perplexity, encore un autre système de fonctionnement. Ce que les gens doivent comprendre, c'est que... Tu ne peux pas interagir sur le choix des sources de données. C'est le LLM qui choisit. Il a été fonctionné pour être branché sur Bing, sur Google, sur un knowledge graph. Et tu ne peux pas non plus interférer sur... Il récupère des informations, mais comment il sélectionne les sources finales ? Ça, c'est impossible. Par contre, oui, tu peux choisir d'être indexé ou pas indexé dans certaines situations. Et là, on revient sur du SEO classique, en fait. C'est tout ce qu'on faisait déjà il y a plus de 20 ans. ou par exemple un llm ou sa source de données pour les hôtels c'est booking batte a tout intérêt à être présent sur booking et et là tu as quasiment rien à faire en fait on va être naturellement cité par le par le llm ok et
- Speaker #1
il y avait un dernier aspect que je voulais te ça je voulais voir ton avis pour moi google a une d'abord Google répond depuis des années à la question tu me demandes quelque chose, je vais essayer de te répondre quelque chose de pertinent. Il ne faut pas oublier que ce qu'on demande à un moteur de recherche, que ce soit un LLM derrière Google ou Bing, ce qu'on veut c'est que ça réponde à un truc qui semble à peu près correspondre à ce que je cherche. C'est le cœur de l'amitié. D'ailleurs, Google a gagné la bataille grâce à ça, grâce à la vitesse d'exécution de la réponse. Je parle d'une époque que les moins de 20 ans ne peuvent pas connaître. Le web marchait moins vite et Google t'affichait tout de suite ta réponse. Bon, soit. Mais Google, depuis des années, fait ça. Et Google, ce n'est plus un secret. Nous, c'est notre métier en SEO. Google se base sur des piliers, donc la sémantique de ta page, sur l'autorité de ton site et sur la technique aussi, le fait qu'on puisse que ce soit quelque chose qui fonctionne bien et fluide, parce que c'est super pertinent, mais que le site sur lequel tu vas je charge tellement lentement qu'en fait tu vas avoir du mal à voir l'information là où tu es avec ton mobile en 2G, ça va être compliqué. On a vu dans des leaks que Google exploite évidemment beaucoup aussi les données de Chrome, plus de 400 choses, 400 événements traqués, etc. Alors Emmanuel, où tu veux en venir ? En fait, ce que je me dis moi dans mon intuition, que je n'ai pas forcément prouvé, mais c'est qu'avec ces données-là, que Google utilise depuis des années pour nous servir de la qualité, À savoir, est-ce que Vincent passe du temps sur Chrome, sur tel article, plus qu'un autre, ça à une certaine échelle, etc. Mais l'avancée vis-à-vis de ce savoir et de cette technologie déjà mature du côté de Google est immense par rapport à un LLM, un chat GPT ou je ne sais pas qui, qui lui, je ne suis pas certain, a ces notions d'autorité. Il peut un petit peu l'avoir. En tout cas, par contre, il n'a pas les informations de Chrome, tout ça. Pardon, je suis un peu long, mais c'est important que je mette bien le truc. Est-ce que pour toi, Google, avec tout son savoir et tout ce qu'on sait de sa technologie, n'a pas une majorité écrasante sur ses concurrents L&M ? Je parle plus sur l'aspect de recherche au regard de ce qu'ils possèdent en interne, comme savoir et comme data avec Chrome et Android.
- Speaker #0
Si on revient sur le dataset, oui. Google a une avance sidérale, notamment sur Bing et compagnie, avec un live, qui nourrisse quasiment en temps réel. Et en plus, ils croisent les sources de données. Ils n'en prennent pas une, deux, ils en prennent trois, ils font de la triangulation pour être certains que ce qu'ils mettent dans leur knowledge graph, c'est une source de confiance qu'ils peuvent exploiter. Par contre, le gros changement, c'est l'intelligence des LLM. C'est-à-dire que les LLM... Ils n'ont pas tous accès à ce knowledge graph, mais ils font ce qu'on appelle du fan-out. C'est-à-dire que quand tu demandes quelque chose, il va décliner toutes les possibilités autour d'une réponse.
- Speaker #1
Est-ce que tu parles de confort ?
- Speaker #0
Et il va aller chercher ce qui lui manque. Google va répondre beaucoup plus vite parce qu'en fait ils ont l'information en kit prête à l'emploi alors que les autres si tu veux à travers cette intelligence de LLM ils vont être capables de faire du chain of thought c'est de la chaîne de pensée ça veut dire se dire ok il me demande les meilleurs hôtels à Paris sous tel budget ça va créer toutes les requêtes et je sais pas si tu as testé Deep Research, il y a des capacités que ce soit sur ChatGPT ou Perplexity et tous ces équivalents et bah au final, malgré qu'ils n'aient pas les mêmes datasets, les réponses d'un chat GPT restent pertinentes. Tu vois ? Donc, il va passer plus de temps, ils vont avoir plus de mal à aller chercher l'information, mais on est quand même sur un web. Quand tu cherches, tu trouves.
- Speaker #1
Ils ont récupéré quand même une certaine forme de retard parce qu'ils ne font pas ça comme Google depuis 20 ans. Donc,
- Speaker #0
ils sont moins performants, ils sont moins rapides, mais honnêtement, moi, que ça prenne une minute ou cinq minutes ou dix minutes... Ce n'est pas vraiment un sujet, en fait, quand tu es dans ce type de recherche. Par contre, si tu veux quelque chose très vite, là, clairement, il faut utiliser Google.
- Speaker #1
Oui. Et puis, ils ont aussi un peu d'argent en cash, Google. Donc, je pense qu'ils ont tous les moyens de rattraper ça.
- Speaker #0
Là, les prochaines évolutions, c'est clairement les achats par agent. Ça veut dire la capacité à dire à Google, voilà, on va prendre de la consommation, sinon on ne sera pas d'accord. Mais j'ai besoin que tu renouvelles mes capsules de café toutes les semaines. L'agent va trouver le site, il va acheter, il va utiliser ta carte bleue et tu n'as rien à faire. Ça va faire gagner un temps monstrueux. Ça va très très rapidement arriver.
- Speaker #1
Ok, donc pour le mot de la fin, Vincent, ce que je te propose, c'est qu'on se projette dans 10 ans. Waouh ! C'est dur ça. On se projette dans 10 ans, nos enfants seront déjà grands. nous... On sera peut-être en train de réfléchir à la retraite ou on travaillera encore comme des fous, je ne sais pas. Est-ce que tu peux nous faire un peu une projection de ces outils dans 10 années, une fois qu'on sera vraiment dans une certaine forme de maturité, on peut dire ça. Est-ce que toi tu arrives à te projeter un peu dans cette nouvelle ère qui arrive vers nous ? Qu'est-ce qui va changer pour toi qui va venir ? On pourra réécouter tes paroles dans 10 ans pour savoir si c'était juste.
- Speaker #0
Moi j'ai toujours des fortes convictions, donc c'est la première fois qu'on me le demande mais je vais le dire. Je pense que l'IA aide à comprendre de mieux en mieux l'humain, ce qu'on peut faire, ce qu'on ne peut pas faire. Et je pense que là on est à fond dans la Genie Eye et bientôt l'IA ça sera une commodité, on n'en parlera même plus dans 10 ans, parce qu'il y aura de l'IA partout. Mais je pense que la prochaine chose qu'on va améliorer c'est l'humain. et que l'humain va devenir de plus en plus intelligent et qu'il n'y aura pas de problème. plus personne mis de côté parce qu'en fait ça sera des éducations spécialisées. Là, on avait un système éducatif un peu obsolète où on part du principe que tous les enfants ont le même potentiel, alors qu'il faudrait les encadrer différemment. Et je pense que l'humain va être fortement amélioré d'ici dans 10 ans. Je pense qu'on n'aura plus du tout les mêmes problèmes avec les maladies. On n'en parle pas, mais la médecine fait d'énormes progrès. Donc, dans 10 ans, on sera capable de quasiment tout remplacer. Donc. Je pense que ceux qui écoutent, ils le savent, mais je suis quelqu'un de très optimiste et je pense qu'on vivra beaucoup mieux dans 10 ans que ce jour. Ça serait le mot de la fin pour moi.
- Speaker #1
Vincent Terrasi, merci énormément de m'avoir accordé du temps. Moi, je suis très content d'avoir pu t'écouter dans ce podcast. Je pense qu'il aura beaucoup de succès. On te souhaite de très belles choses avec Draft & Goal. Je pense que vous avez déjà une trajectoire...
- Speaker #0
On est bien parti.
- Speaker #1
On est bien parti. On va vous surveiller et vous suivre avec attention. Et puis, je te dis à une prochaine fois.
- Speaker #0
Merci beaucoup. À bientôt.
- Speaker #1
À bientôt. Merci pour votre écoute. N'hésitez pas à partager et liker ce podcast pour le faire vivre auprès d'autres personnes, d'autres SEO compulsifs.