- Speaker #0
Le WAMCAST, toute l'actu du marketing digital et des conseils d'experts pour booster l'autorité de votre marque par l'agence WAM.
- Speaker #1
Bonjour à toutes et à tous et bienvenue dans ce nouvel épisode du WAMCAST. Ces derniers temps, une question revient de plus en plus souvent, mais concrètement, mon site web, il sert encore à quelque chose ? C'est une vraie question parce qu'on lit partout que le trafic organique s'effondre, que l'IA répond à tout, que les gens ne cliquent plus. Et au fond, ça sème le doute, même chez ceux qui ont toujours soigné leur présence en ligne. Alors aujourd'hui on met les pieds dans le plat. Le site web en 2026, vestige du passé ou QG de l'autorité digitale. Pour en parler, j'ai avec moi deux experts de l'agence WAM, Florian Guilteau, responsable expertise métier Search, et Charlotte Géerfort, responsable expertise métier Web. Bonjour à tous les deux.
- Speaker #2
Salut Camille.
- Speaker #3
Bonjour Camille.
- Speaker #1
Florian, avant de parler du site lui-même, il faut qu'on comprenne ce qui a changé autour de lui. D'où ma première question, est-ce qu'on cherche encore de l'information sur Internet de la même façon aujourd'hui qu'il y a cinq ans ?
- Speaker #2
Alors effectivement, ça change un petit peu. On ne cherche plus de la même façon qu'avant. Et le vrai changement n'est pas seulement technologique, il est surtout comportemental. Pendant longtemps, chercher de l'info en ligne, c'était accepter une contrainte. On devait s'adapter à la technologie. Sur Google, on simplifiait volontairement sa pensée. Par exemple, on tapait « Meilleur CRM » , « Agence Web Paris » et ensuite, on faisait, enfin on fait toujours d'ailleurs, nous-mêmes l'exercice, ouvrir des onglets, comparer, trier et interpréter. On est… sur Google dans une posture de chasseur d'informations.
- Speaker #1
Ok, donc on se retrouvait à éplucher 10 onglets pour finalement se faire un avis tout seul au milieu du bruit.
- Speaker #2
Exactement. Et ce réflexe-là est en train de disparaître. Avec des outils comme ChatGPT, iMod pour ceux qui l'ont déjà, ou Gemini, on ne se sent sur plus. On n'essaie plus de bien formuler pour l'algorithme. On formule nos besoins tels qu'on le pense vraiment. On partage le contexte, nos attentes, nos contraintes, nos doutes parfois. Et en retour, on n'attend plus juste une information, on attend un avis une analyse et surtout, on attend une réponse directe, structurée et actionnable.
- Speaker #1
Donc, on ne parle plus vraiment de recherche au sens classique du terme, c'est plutôt de la conversation, non ?
- Speaker #2
C'est ça, on parle de dialogue et même de délégation cognitive. Donc, la délégation cognitive, c'est le fait de confier une tâche mentale à un outil, comme par exemple, demander à ChatGPT de résumer un texte plutôt que de le lire en détail. Et ça, on le voit dans les différentes statistiques des différentes études. On peut mentionner celle de SimilarWeb, par exemple. une requête Google. ça en moyenne 3 ou 4 mots. Un prompt IA, c'est souvent 50 à 60 mots. Pour reprendre l'exemple du CRM, sur Google, on se limiterait à taper « meilleur CRM pour PME » . Sur ChatGPT, ça devient beaucoup plus précis. Par exemple, on va formuler comme ceci « Je suis le dirigeant d'une PME B2B à la recherche d'un CRM qui s'intègre facilement à WordPress, gère le suivi commercial Pipeline Opportunity Relance, propose de l'automatisation marketing, soit facile à utiliser. » offre un bon rapport qualité-prix. Peux-tu me fournir une liste des meilleurs CRM répondant à ce critère et pour chacun détailler fonctionnalité principale, avantage et inconvénient, cas d'usage adapté, estimation de prix. Il y a un comparatif clair dans un tableau avec intégration, automatisation, prix, facilité d'utilisation et support. Donc c'est beaucoup plus précis et on répond vraiment à nos attentes. Et ça, ça montre quelque chose de très fort. On ne cherche plus seulement quoi cliquer. On ne cherche plus une information, on échange avec l'IA pour obtenir la réponse. On veut savoir quoi choisir et surtout, quoi faire ensuite.
- Speaker #1
Cet écart entre 4 mots et 60 mots, il dit vraiment quelque chose sur notre rapport à la recherche d'informations. Et forcément, la question qui suit, c'est dans ce nouveau schéma, est-ce qu'on peut dire que l'IA remplace Google ?
- Speaker #2
Pas vraiment, non. Mais en fait, ce qu'on voit surtout émerger, c'est un nouveau parcours hybride en 3 temps. Donc l'IA pour réfléchir, On utilise pour débroussailler un sujet, comparer, comprendre, prendre du recul. L'IA joue un rôle de conseiller, presque de sparring partner intellectuel. Ensuite, les réseaux sociaux pour se rassurer. Donc on va voir ce que les autres en pensent, chercher des retours d'expérience et des avis. Et ensuite, Google pour valider. Et là, on cherche le site officiel, la marque, la preuve du sérieux avant de passer à l'action.
- Speaker #1
Charlotte se parcourt en trois temps. Est-ce que les clients en ont conscience ? qui sont littéralement la dernière étape avant la décision d'achat ?
- Speaker #3
En fait, pas toujours. C'est même un des grands malentendus. Beaucoup de marques imaginent encore leur site comme un site statique. On présente l'offre, on raconte l'histoire et cela suffit. Sauf qu'en 2026, un site n'accueille plus quelqu'un qui le découvre, mais un internaute qui a déjà comparé, lu des avis, voire fait même une présélection avec l'IA. Donc il arrive avec 70% de conviction et le site doit lui offrir les 30% qui vont le pousser à l'action. La preuve, la clarté, la réassurance et surtout un parcours fluide pour convertir. En fait, le site est toujours très important, mais il peut arriver beaucoup plus souvent en dernière étape.
- Speaker #1
Ce chiffre de 70% de conviction à l'arrivée, je le trouve très parlant, parce que ça veut dire que le site n'est plus là pour convaincre 2-0, il est là pour finaliser. Florian, dans ce contexte-là, est-ce que le rôle du site a vraiment changé ou c'est surtout la façon dont il est perçu qui évolue ?
- Speaker #2
C'est ça, l'objectif principal d'un site ne change pas vraiment. Il est toujours là pour engager l'utilisateur et surtout l'amener vers une action. En revanche, ce qui évolue, c'est la manière dont le site est perçu. Un site n'est plus seulement une destination où l'on arrive via un moteur de recherche, il devient aussi une source, une source que les intelligences artificielles vont consulter, analyser, comparer à d'autres contenus. puis éventuellement citer ou ignorer. Donc le rôle s'élargit, le contenu d'un site ne s'adresse plus uniquement aux visiteurs, il doit aussi être compréhensible, structuré et pertinent pour les IA, parce que ce sont elles qui, de plus en plus, influencent la manière dont l'information est redistribuée aux utilisateurs.
- Speaker #1
Ok, donc on a deux publics maintenant, les humains et les IA, et les deux doivent trouver ce qu'ils cherchent sur le site. Concrètement, pour quelqu'un qui gère un site au quotidien, ça se ressent comment cette double exigence ?
- Speaker #2
Alors, l'IA ne change pas les fondamentaux. Elle élève juste le niveau d'exigence un peu plus haut. L'UX et les performances restent essentielles. Là où ça change vraiment, c'est que les erreurs sont amplifiées. Une structuration faible, un contenu mal réfléchi par exemple, ou un mauvais temps de chargement se font immédiatement sentir. Le site doit être irréprochable techniquement, rapide, propre et bien structuré, et évidemment proposer un contenu résolutif.
- Speaker #1
Charlotte, il y a un autre mythe qu'on entend souvent. Ceux qui disent « on a Instagram, on a LinkedIn, le site c'est secondaire » . Tu leur réponds quoi à ces gens-là ?
- Speaker #3
En fait, nous ne maîtrisons ni l'algorithme, ni la donnée, ni l'accès technique aux réseaux sociaux. Donc en fait, le site web reste le seul actif dont nous sommes propriétaires. C'est l'unique support que l'on peut structurer proprement, baliser et rendre exploitable par les IA avec des données maîtrisées.
- Speaker #1
Propriétaire, c'est vraiment le mot-clé ici. Et si malgré tout, on néglige son site, le vrai risque, c'est quoi ?
- Speaker #3
Alors d'un point de vue IA, ce n'est pas seulement de perdre du trafic. Le risque, c'est de sortir du champ d'analyse des LM. et de laisser les concurrents devenir la référence sur sa propre expertise.
- Speaker #1
Bon, on est d'accord, le site reste indispensable, c'est acté. Maintenant, la vraie question, c'est à quoi ressemble un bon site en 2026 ? Charlotte, toi qui travailles là-dessus au quotidien, c'est quoi les bases qu'on ne peut plus se permettre de négliger ?
- Speaker #3
Alors Camille, les fonds d'Amoto, c'est les mêmes qu'avant, mais ils sont devenus non négociables. La base, ça reste la performance, la structure et le contenu utile. C'est juste devenu encore plus important. plus indispensable parce que tu ne parles plus seulement à un humain. Il y a des données structurées qui permettent de dire aux IA ce qu'elles lisent. Il faut penser à l'accessibilité machine qui est primordiale pour que le contenu soit lisible même sans JavaScript. Ensuite, il faut adapter son hébergement pour qu'il puisse absorber un crawl plus fréquent et plus lourd. Et enfin, il y a la cohérence des informations. Il ne faut pas de contradictions entre sources. En résumé, le niveau d'exigence a monté d'un cran.
- Speaker #1
Florian, on dit souvent que les IA lisent nos sites. D'accord, mais comment exactement est-ce que c'est vraiment si différent de ce qu'on faisait avec le SEO classique ?
- Speaker #2
Alors oui, il y a un vrai changement de logique. Avant, Google classait des pages les unes par rapport aux autres. Aujourd'hui, les IA ne se contentent plus d'ordonner des résultats, elles synthétisent directement l'information pour produire une réponse. Pour leur parler, le langage universel reste le schema.org. Ce sont des balises qui structurent vos contenus et indiquent clairement ceci est un prix, là c'est un avis, ici c'est une FAQ. Plus votre site est structuré, plus l'IA comprend précisément ce que vous proposez. Il y a aussi une nouveauté majeure, c'est le mécanisme de query fan-out. Concrètement, l'IA ne lance pas une seule recherche. Elle découpe la question de l'utilisateur en une multitude de sous-questions très ciblées. Et si votre site ne répond pas de façon claire, spécifique et experte à ces micro-requêtes, il ne sera tout simplement pas intégré dans la réponse finale générée par l'IA.
- Speaker #1
Ce query fan-out, c'est un concept que Morgan Zeller développait justement dans notre webinaire du 24 février dernier. Il disait notamment que si l'info est noyée dans un pavé de 50 lignes, il y a galère à extraire la donnée. Charlotte, ça se traduit comment côté conception de page ?
- Speaker #3
Alors, les LLM lisent un HTML propre et hiérarchisé, c'est-à-dire que pour les niveaux de titre, il faut d'abord avoir le H1, puis le H2 et enfin le H3. Il faut un sujet avec une page dédiée, avec une URL claire, des paragraphes. Graphes autonomes, des phrases explicites avec des données structurées. Concrètement, dans l'idéal, si une IA découpe une question en 12 sous-questions, il faudrait que le site propose 12 blocs clairement identifiables qui répondent chacun à une intention précise.
- Speaker #1
Et dans cette logique, les formats de contenu comme les FAQ ou les tableaux comparatifs, ils ont pris de la valeur, j'imagine ?
- Speaker #3
Oui Camille, et là encore, ce n'est pas une révolution. Les FAQ, les tableaux comparatifs, les définitions claires, ça a toujours aidé à clarifier un sujet. Ce qui change aujourd'hui, c'est que cette structure ne sert plus seulement le lecteur, elle sert aussi les modèles. Donc au final, ça nous oblige à être encore plus rigoureux dans la manière dont on les construit.
- Speaker #1
Ce que tu décris finalement, la structure, le balisage, la hiérarchie du contenu, Ça dépend aussi beaucoup de l'outil qu'on utilise pour construire le site. Est-ce que le choix du CMS devient stratégique avec tout ça ?
- Speaker #3
Oui, clairement, parce que tous les CMS ne produisent pas la même qualité de structure. Un CMS adapté, aujourd'hui, il doit générer un code propre avec une hiérarchie de titres cohérents, des balisages HTML sémantiques bien utilisés, pas de contenu stratégique caché derrière le script, mais il doit aussi permettre d'ajouter facilement du balisage schéma, produire automatiquement un site map XML. et aussi être compatibles avec les standards de performance. C'est pour ça que des solutions comme WordPress sont très pertinentes. Par défaut, la structure est saine, l'écosystème SEO est mature, on peut intégrer facilement du schéma, générer ses taxonomies, optimiser la performance. Mais attention, WordPress en lui-même n'est pas une garantie. Mal configuré, il peut aussi devenir lourd et mal structuré, enfin aussi mal structuré finalement qu'un CMS bancal. C'est justement pour ce type de problématique qu'on a développé notre propre solution Scalpress qui s'appuie sur WordPress, mais avec une architecture technique pré-optimisée. C'est-à-dire qu'on a un socle léger et structuré, des bonnes pratiques SEO intégrées, un balisage propre dès la base et une logique de performance pensée dès le départ. L'objectif, ce n'est pas simplement de mettre un WordPress en ligne, c'est d'avoir un site propre, performant, exploitable dès la mise en ligne sans devoir tout reprendre six mois plus tard.
- Speaker #1
Florian, j'aimerais... qu'on parle d'un concept qu'on entend beaucoup en ce moment et qui touche à tout ce qu'on vient de dire, l'EAT pour expérience, expertise, autorité, fiabilité. Est-ce que c'est un vrai critère de fond ou ça commence à devenir un mot valise qu'on met à toutes les sauces ?
- Speaker #2
Alors, l'EAT, c'est notre étoile polaire. Avec l'IA qui peut générer du contenu moyen à l'infini, on voit que l'authenticité, c'est vraiment la seule barrière à l'entrée. Pour être cité, il faut créer du contenu entre guillemets dix fois meilleur. Donc ça, ça veut dire apporter des preuves que l'IA n'a pas, des retours d'expérience terrain, des interviews experts ou encore des données exclusives. Mais il faut faire attention aussi à ce concept d'EAT, je ne joue pas uniquement sur le site. On voit que sur les dernières données en 2026, 80% des sources citées par les IA sur une marque viennent de l'extérieur, que ce soit des sites de presse, des sites d'avis, des réseaux sociaux, et seulement 20% viennent de votre propre site. Pour résumer, votre réputation externe pèse 4 fois plus lourd que votre propre contenu.
- Speaker #1
80% des sources citées viennent de lecteurs, ça c'est un chiffre qui devrait faire réfléchir. Charlotte, ça rejoint quelque chose que tu travailles souvent avec les clients, la crédibilité perçue sur le site lui-même. Est-ce que des pages comme À propos ou des pages d'équipe ont pris une nouvelle dimension ?
- Speaker #3
En fait, ces pages ont toujours compté pour rassurer l'humain. Elles rassuraient déjà bien avant qu'on parle d'IA. ce qui change aujourd'hui c'est qu'elle ne sert pas plus seulement à convaincre un visiteur, elles servent aussi à poser noir sur blanc qui vous êtes, ce que vous faites et d'où vient votre expertise. Yann n'a pas créé ce besoin de crédibilité, c'est juste qu'elle le rend plus mesurable et plus structurant.
- Speaker #1
Florian, on a parlé de contenu, de structure, de crédibilité, mais il y a aussi tout un pan technique qui joue en coulisses et que les clients ne voient pas forcément. Est-ce qu'il y a des erreurs que tu rencontres régulièrement et qui pénalisent les sites sans que personne ne s'en rende compte ?
- Speaker #2
Alors oui, il y en a encore très souvent. La plus fréquente et parfois la plus sous-estimée, c'est le javascript mal maîtrisé. Quand il est mal utilisé, le contenu sur un site peut venir difficilement lisible pour les robots. Pour un humain, tout semble fonctionner parfaitement, mais les robots, c'est comme si une partie du site n'existait pas. L'autre piège assez courant, c'est la protection anti-bots trop agressive. A force de vouloir bloquer le spam ou les scrappers, certains sites finissent par bloquer aussi les robots des moteurs de réponse. Et là, sans forcément s'en rendre compte, ils disparaissent tout simplement des radars. Et puis, il y a la performance serveur, le fameux Time to First Byte. Et là, il n'y a pas de seuil officiel, mais dans un système piloté par l'IA, où tout est contraint par la latence, un serveur un peu trop lent peut réduire vos chances d'être sélectionné. Pour l'utilisateur, quelques millisecondes de plus, c'est totalement imperceptible. Pour un robot, en revanche, ça peut faire toute la différence.
- Speaker #1
Charlotte, tu confirmes, l'hébergement, le temps de chargement, la qualité du code, c'est des sujets que tu dois souvent remettre sur la table avec les clients ou ils en ont pris conscience ?
- Speaker #3
Je confirme ce que dit Florian, effectivement. L'hébergement est souvent plutôt un enjeu de sécurité pour les grandes entreprises. Par contre, en effet, la performance n'est pas toujours considérée. Sauf que maintenant, les bots et crawlers, notamment IA, passent beaucoup plus régulièrement et massivement. Donc le site peut être impacté. Il peut devenir lent et moins considéré. Il va disparaître des radars. Pour savoir si un hébergement est devenu sous-dimensionné, il y a plusieurs signes qui peuvent alerter un client, des pics de lenteur, des pages en timeout générant des erreurs 500, type 503, 504, etc. Des alertes aussi dans la search console et des chutes aussi d'indexation ou un back-office très lent.
- Speaker #1
Ok, donc il y a des signaux d'alerte à surveiller. Et quand vous arrivez sur un audit, justement, par où vous commencez ? C'est quoi les chantiers prioritaires ?
- Speaker #3
Alors, quand on va réaliser un audit technique, on commence toujours par l'accessibilité du contenu. Est-ce que le contenu principal est lisible sans surcouche JavaScript trop complexe ? Est-ce qu'il existe bien côté serveur ou est-ce qu'il est uniquement injecté dynamiquement ? Ensuite, on va vérifier la crawlabilité, le robot textier, le sitemap XML, la gestion de la pagination, les balises canoniques ou encore la profondeur des pages. Il y a aussi la performance dont on parlait avant. C'est un axe prioritaire, poids des images, gestion du cache, script inutile, le temps de réponse serveur et plus... enfin plus généralement la stabilité globale. On analyse aussi la structure du site dans son ensemble, mais également par typologie de contenu. Est-ce que la hiérarchie des titres est bonne ? Est-ce que les URL sont cohérentes ? Comment est fait le maillage interne ? La logique des catégories. Ensuite, on va pouvoir regarder l'hygiène technique, la présence d'erreurs 404, les contenus dupliqués. Est-ce que les redirections sont bien gérées ? Ou aussi s'il y a une absence ou mauvaise implémentation des données structurées. L'objectif, c'est que le site soit à la fois compréhensible pour un humain et complètement exploitable pour un moteur de recherche ou les IA.
- Speaker #1
Et si un client a un budget limité, par où il commence ? Design, technique, contenu, on met quoi en premier ?
- Speaker #3
Alors il faut être clair avec le client tout de suite, un site beau mais non accessible c'est inutile. Il faut un site technique qui soit solide et lisible. On peut ensuite organiser l'information et enrichir le contenu. Il faut un minima pour avoir un site performant, exploitable par les IA, que le socle soit rapide et stable mais avec un code HTML structuré. une architecture claire, mais également un sitemap et robots textés maîtrisés, les basiques de schéma, comme le fil d'Ariane. Une fois que tout est en place, on peut travailler la profondeur éditoriale, les cas clients, les preuves, les données exclusives, mais sans cette base, le contenu, même s'il est excellent, qu'il a bien été travaillé, ça risque simplement de ne pas être correctement exploité.
- Speaker #1
Ok, on arrive à la partie qui agite beaucoup de directeurs marketing en ce moment. On entend de plus en plus parler du fait... d'être cité par une IA comme étant le nouveau Graal, la nouvelle première page Google en quelque sorte. Florian, c'est vraiment devenu une forme d'autorité mesurable ?
- Speaker #2
Complètement, oui. Alors en fait, on a vraiment changé de paradigme. On ne se bat plus seulement pour capturer un clic, on se bat pour ce qu'on appelle la science. Donc c'est un concept marketing qu'on emprunte à Byron Sharp. C'est la capacité d'une marque à devenir l'association réflexe dans l'esprit de l'utilisateur au moment de l'achat. Sauf qu'en 2026, cet esprit, c'est celui de l'IA. Aujourd'hui, on va mesurer le share of model. C'est la probabilité statistique que l'IA vous associe à une expertise précise. Pour vous donner un exemple, si on interroge Gemini sur le prêt subventionné, il va nous citer systématiquement la marque Sofiap. Ce n'est pas un hasard, c'est le résultat d'un travail pour ancrer la marque dans la structure mémorielle de l'algorithme. Et ça, c'est la nouvelle autorité.
- Speaker #1
Et Sofiap, c'est justement l'un de nos cas clients. Et pas n'importe lequel, puisqu'on a remporté deux prix pour ce projet. Pour ceux qui veulent creuser, on a détaillé toute notre démarche sur notre site. Voilà, je ferme la petite parenthèse promo. Florian, revenons à cette notion de mesure. Il y a des outils qui te permettent de traquer ça ?
- Speaker #2
Alors oui, aujourd'hui, il y a beaucoup, beaucoup d'outils qui permettent de relever la fréquence et le contexte de citation dans les différents modèles. Et nous, notre rôle en tant qu'agence, c'est vraiment de transformer ces données en actions concrètes, comme on le fait dans avec notre POC IA à l'agence WAM. Et c'est ça qui compte finalement.
- Speaker #1
Et Charlotte, toi qui vois les données de performance des sites, est-ce que tu observes déjà ce phénomène ? Moins de trafic, mais un trafic différent.
- Speaker #3
Tout à fait Camille. On peut parfois observer une baisse du trafic informationnel. Les gens ne viennent plus systématiquement pour une définition ou une comparaison générale parce que l'IA leur a déjà donné ça. Par contre, le trafic qui reste est plus réfléchi. Il faut regarder en priorité le taux de conversion, les parcours utilisateurs qui arrivent sur des pages business comme la demande de devis ou de démo. La qualité des leads enregistrés est toujours un KPI central bien évidemment. En gros, ce n'est pas le trafic qu'il faut mesurer, mais si les internautes qui arrivent sur le site peuvent avancer dans leur parcours.
- Speaker #1
Florian, tu confirmes cette observation ?
- Speaker #2
Alors oui, on peut effectivement observer quelques baisses sur les pages informationnelles, comme précisé par Charlotte, en fonction du secteur d'activité. Toutefois, le trafic restant est beaucoup plus qualifié. L'IA a déjà fait le travail d'éducation et de comparaison en amont. Donc le visiteur qui arrive sur le site est déjà convaincu. Beaucoup plus avancé dans l'entonnoir, donc on a moins de monde, mais la conversion est beaucoup plus efficace. D'ailleurs, aujourd'hui, on voit souvent passer des études, parfois alarmistes, sur la baisse des sessions depuis l'arrivée de l'IA générative, mais à ma connaissance, peu se penche sur l'engagement et les conversions qui, d'après nos observations, restent très solides.
- Speaker #1
Charlotte, ça rejoint quelque chose d'important sur la conception du site. Si le visiteur arrive déjà convaincu, le site doit être prêt à convertir vite. Est-ce que ça change la façon dont on conçoit les parcours ?
- Speaker #3
En fait, oui, mais il ne faut pas supprimer ces parcours pédagogiques. Tous les utilisateurs ne sont pas au même niveau de maturité. Il ne faut pas imposer un seul tunnel à tout le monde. Certains auront encore besoin de comprendre, d'autres arrivent déjà convaincus, parfois après avoir échangé avec une IA, ou parce que tout simplement, en fait, ils connaissent déjà votre site. L'intérêt d'ajouter des parcours courts et directs pour ceux qui sont prêts est renforcé. Les CTIA doivent être visibles immédiatement, il faut proposer des accès rapides aux devis ou à la demande de rendez-vous, et proposer des preuves accessibles sans devoir chercher. Finalement, on ne va pas... plus vite pour tout le monde. On permet simplement d'aller vite à ceux qui le veulent.
- Speaker #1
Ok. Florian, maintenant une question qui résume un peu tout ce qu'on a dit. Les entreprises qui ont bien travaillé leur SEO ces dernières années, qui ont eu la discipline de le faire sérieusement, est-ce qu'elles partent avec une vraie longueur d'avance aujourd'hui face à l'IA ?
- Speaker #2
Clairement, oui. Alors, le SEO classique, ça reste le socle du GEO. Le GEO, c'est rien d'autre qu'une extension du SEO ou du search plus globalement. Donc, si ton site respecte déjà les principes EAT, qu'il est rapide, qu'il propose un contenu entre guillemets dix fois meilleur, c'est-à-dire une expertise que l'IA ne peut pas reproduire toute seule, là on a vraiment une longueur d'avance. Donc aujourd'hui, les sites qui excellent en SEO sont ceux que les LLM valorisent le plus et apportent la plus grande confiance.
- Speaker #1
Pour finir, si un dirigeant nous écoute et veut agir des deux mains, c'est quoi sa première étape Florian ?
- Speaker #2
Alors ce qu'il faut déjà, c'est tester sa maturité. Donc la première chose à faire, c'est... poser des questions clés à ChatGPT, Perplexity ou Gemini sur son secteur et voir s'il apparaît. Donc s'il est absent, se poser la question de savoir si son site répond déjà à cette problématique. Est-ce qu'il apporte une meilleure réponse, une meilleure solution que les autres ? On le répète souvent, est-ce que le contenu est résolutif ? Est-ce qu'il est suffisamment étayé pour que vous soyez choisi comme référent sur ce sujet ? Ensuite, il faut identifier des sources externes, donc des médias, des associations, des sites d'avis. qui devrait parler de vous et lister votre expertise, celle qui n'est documentée nulle part ailleurs. Donc il faut commencer à nourrir la machine si ce n'est pas déjà fait.
- Speaker #1
Charlotte, même question, si tu pouvais donner un seul conseil web à ce dirigeant, ce serait lequel ?
- Speaker #3
Je dirais, rendez votre site impossible à mal comprendre pour un humain comme pour une hérite. Concrètement, clarifiez votre structure, vos offres, vos preuves et formalisez clairement les informations clés. En 2026, le risque n'est pas seulement d'avoir moins de trafic, c'est vraiment que votre site soit mal compris ou tout simplement ignoré. Donc l'enjeu est assez simple, avoir un site clair, rapide, bien structuré. Un site qui convertit quand un humain arrive dessus, mais qui est aussi suffisamment propre et cohérent pour être pris correctement par les IA.
- Speaker #1
Ok, on arrive au bout de cet épisode. Ce qu'on retiendra, le site web n'est pas mort, mais il a changé de rôle. Il n'est plus seulement une vitrine pour les humains, mais est devenu une source pour les machines. Et ça change tout à la façon dont on le conçoit, dont on l'entretient et dont on le nourrit. Moins de trafic, oui, mais un trafic plus qualifié, une autorité plus solide et une présence dans les réponses IA si le travail est bien fait. Si vous voulez aller plus loin, notre webinaire du SEO au GEO est disponible en replay sur YouTube. Et si vous voulez faire le point sur votre propre site, n'hésitez pas à nous contacter, on se fera un plaisir de vous répondre. Merci Florian, merci Charlotte pour votre éclairage et merci à vous de nous avoir écoutés. On se retrouve très vite pour un prochain WAMCAST, salut !