# Academie GEO — Export markdown integral > Academie GEO est un magazine indépendant qui forme, documente et critique les pratiques du Generative Engine Optimization. Cours, études de cas, fiches outils et frameworks de tracking pour les équipes francophones qui veulent gagner la guerre de la citation IA. Ce fichier rassemble l'integralite des publications editoriales de GEO Academy pour permettre l'ingestion par des LLM (ChatGPT, Claude, Perplexity, Gemini, AI Overviews) ou la reutilisation par des chercheurs. Licence : CC BY 4.0 (paternite obligatoire vers https://geo-academy.fr). Genere le : 2026-04-26. --- # Fondations GEO ## Qu'est-ce que le GEO et pourquoi tout le monde en parle - URL : https://geo-academy.fr/fondations/lecon-01-quest-ce-que-le-geo - Description : Définition du Generative Engine Optimization, naissance du terme dans le papier de Princeton fin 2023, et frontière précise avec le SEO classique, l'AEO et le LLMO. - Auteur : theo-roux - Publie le : 2025-10-03 - Tags : debutant, definitions, geo, fondations **TL;DR.** Le GEO designe l'optimisation des contenus pour qu'ils soient identifies, recuperes et cites par les moteurs generatifs (ChatGPT Search, Perplexity, Google AI Overviews). Le terme a ete formalise en novembre 2023 dans le papier arXiv 2311.09735 d'une equipe Princeton, Georgia Tech et IIT Delhi. Il se distingue du SEO classique par la cible (texte synthetise vs liste de liens) et la metrique principale (citation share vs position SERP). Le GEO porte un nom récent mais une question ancienne. Comment faire pour qu'une marque, une expertise ou un produit apparaisse dans la réponse d'un moteur quand celui-ci ne renvoie plus une liste de liens mais un [texte synthétisé par un LLM](/fondations/lecon-04-comment-un-llm-cite) ? Le terme Generative Engine Optimization a été proposé en novembre 2023 par une équipe de chercheurs de Princeton, Georgia Tech et IIT Delhi dans le papier arXiv 2311.09735. Il désigne l'ensemble des techniques permettant a un contenu d'être cité, repris ou recommandé par un [moteur génératif tel que Google AI Overviews](/fondations/lecon-02-cartographie-moteurs-generatifs), Perplexity ou ChatGPT Search. ## Une définition courte et utile On peut tenir cette définition en une phrase. Le GEO consiste a optimiser un contenu et un site pour qu'ils soient identifiés, récupérés et cités par un moteur de recherche fondé sur un modèle de langage. Trois verbes comptent ici. Identifiés, parce que le moteur doit être capable de reconnaître votre site comme une source pertinente. Récupérés, parce que la couche de recherche derrière le modèle doit pouvoir l'extraire au bon moment. Cités, parce que la marque doit apparaître dans la réponse, idéalement avec un lien. Cette définition n'est pas équivalente au SEO classique. Le SEO vise un classement dans une liste de liens bleus. Le GEO vise une présence dans un texte. La métrique change. Au lieu de regarder une position du un au dix, on regarde si une URL est citée dans la réponse, combien de fois elle revient sur un [panier de prompts construit selon le PromptStack 4-Layers](/methodologie/promptstack-4-layers), et avec quel verbatim. ## D'ou vient le terme exactement Le papier de Princeton est sorti en novembre 2023. Les auteurs partaient d'un constat simple. Les utilisateurs commençaient a poser des questions a des outils comme Bing Chat, et les sites qui apparaissaient dans la réponse n'étaient pas toujours ceux qui dominaient le SEO classique. L'équipe a testé neuf stratégies de rédaction sur un panier de mille prompts pour mesurer leur impact sur la visibilité d'une source dans les réponses génératives. Les conclusions ont depuis été reprises et discutées, mais le terme GEO est resté. Avant cette publication, plusieurs praticiens parlaient déjà d'optimisation pour les chatbots ou pour les LLM, mais sans terme stabilisé. La littérature anglophone évoquait LLMO pour Large Language Model Optimization. Wikipedia indique que GEO est entré dans l'usage courant en 2024, avec une accélération nette en 2025 quand Google a généralisé les AI Overviews dans plus de cent pays. ## La frontière avec SEO, AEO et LLMO On peut clarifier les quatre acronymes en regardant ce qu'ils visent. | Sigle | Cible visée | Format de réponse | Métrique clé | |-------|-------------|-------------------|--------------| | SEO | Moteur classique | Liste de liens | Position, clics | | AEO | Featured snippet et People Also Ask | Bloc de réponse direct | Présence dans le bloc | | GEO | Moteur génératif a citation | Texte synthétisé avec sources | Citation share | | LLMO | Modèle de langage en général | Réponse, parfois sans source | Mention fréquence | Le SEO et l'AEO visent une page de résultats traditionnelle. Le GEO vise un moteur qui synthétise plusieurs sources en un seul texte et qui montre quelques références. Le LLMO est un terme parapluie, utilisé surtout aux États-Unis, qui couvre aussi bien la présence dans les réponses générées a partir des données d'entraînement que dans les réponses fondées sur une recherche en temps réel. Dans la pratique francophone, GEO et LLMO sont souvent utilisés de manière interchangeable, mais on gagne en précision en réservant GEO aux moteurs avec récupération et citation, comme le détaille la [tactique sur la frontière AEO vs GEO](/tactiques/tactique-06-aeo-vs-geo-frontiere). > Le GEO est moins une rupture qu'un changement de surface. Le contenu reste la matière première, mais le client n'est plus la SERP, c'est un modèle qui doit décider de citer. ## Pourquoi le sujet prend de la place en 2026 Le rapport Yext sur la recherche en 2025 a montré que près d'un quart des requêtes informationnelles dans certains marchés passent déjà par un moteur génératif ou une couche IA dans une SERP classique. Les marques B to B observent ce changement plus tôt que les marques B to C, parce que leurs prospects testent volontiers ChatGPT et Perplexity avant un appel commercial. Côté algorithme, les AI Overviews de Google ont commencé a stabiliser leur taux de citation par requête au cours du second semestre 2025, ce qui rend la mesure plus fiable. Côté outils, plusieurs éditeurs de plateforme SEO ont sorti des modules de tracking dédiés. Le marché s'organise. Cela ne signifie pas que le SEO classique disparaît. Les liens bleus restent la principale source de trafic pour la majorité des sites. Mais la présence dans les réponses génératives devient un signal de marque, parfois un signal d'autorité reconnu par les acheteurs avant le clic. Une marque absente des réponses ChatGPT a souvent l'air moins crédible en 2026 qu'une marque dont le nom revient dans les premières phrases. ## Trois questions a se poser avant de lancer un projet GEO Avant d'engager du temps et un budget, trois questions valent la peine d'être traitées sérieusement. Premièrement, quel est le [panier de prompts de base](/fondations/lecon-08-prompt-set-de-base) qui compte vraiment pour mon activité ? Sans ce panier, on optimise au hasard. Deuxièmement, quelles sont les sources que les moteurs citent déjà sur ce panier ? Cela donne le paysage concurrentiel réel et évite de croire qu'on est seul. Troisièmement, mes contenus actuels permettent-ils a un moteur de me citer, c'est-a-dire ont-ils des éléments factuels clairs, des citations, des chiffres, des définitions courtes conformes aux [critères E-E-A-T pour le GEO](/fondations/lecon-06-eeat-pour-geo) ? Si les réponses sont vagues, le projet GEO commence par une remise a plat éditoriale, pas par une solution technique. Beaucoup d'organisations achètent un outil de tracking avant d'avoir construit le panier de prompts. Le résultat est un dashboard très beau et très peu utile. ## Ce que le reste de ce cours va couvrir Cette première leçon pose le décor. Les neuf suivantes vont rentrer dans la matière. La cartographie des moteurs génératifs en 2026, la [différence entre citation et ingestion d'entraînement](/fondations/lecon-03-citation-vs-ingestion), le fonctionnement simplifié d'un [pipeline RAG pour rédacteurs](/tactiques/tactique-05-rag-pour-redacteurs), le [sujet du fichier llms.txt](/fondations/lecon-05-llms-txt-utile-ou-pas), le poids du E-E-A-T pour le GEO, les [premières métriques a suivre](/fondations/lecon-07-mesurer-presence-ia), la construction d'un panier de prompts, les [erreurs typiques au démarrage](/fondations/lecon-09-erreurs-debutant) et une [feuille de route 90 jours](/fondations/lecon-10-feuille-de-route-90-jours) pour passer de zéro a une mesure utile. Le bon réflexe a ce stade est de noter, sur une feuille blanche, les cinq questions que vos prospects posent réellement a un assistant génératif a votre sujet. Cette liste sera la matière première de tout le reste. ### FAQ **Quelle est la difference entre GEO et SEO classique ?** Le SEO vise un classement dans une liste de liens bleus. Le GEO vise une presence dans un texte synthetise par un moteur generatif comme ChatGPT Search ou Perplexity. La metrique change de position SERP a citation share. **Qui a invente le terme GEO ?** Le terme a ete formalise en novembre 2023 par une equipe de chercheurs Princeton, Georgia Tech et IIT Delhi (Aggarwal, Murthy, Kazemi) dans le papier arXiv 2311.09735, ensuite presente a la conference ACM KDD 2024. **Quelle est la difference entre GEO et AEO ?** L'AEO optimise pour les featured snippets et People Also Ask (reponse extraite telle quelle). Le GEO optimise pour les reponses synthetisees par un modele de langage qui combine plusieurs sources et cite avec ou sans lien. **Quelle est la difference entre GEO et LLMO ?** Le LLMO (Large Language Model Optimization) couvre la presence dans la memoire parametrique du modele, sans recherche en temps reel. Le GEO se reserve aux moteurs avec retrieval et citation. En francais on les distingue, en anglais ils sont parfois interchangeables. **Faut-il abandonner le SEO pour faire du GEO ?** Non. Les deux disciplines partagent une matiere premiere commune (le contenu) et beaucoup de leviers (qualite editoriale, autorite). Le SEO reste necessaire car les moteurs generatifs s'appuient encore largement sur les SERP pour recuperer leurs sources. **A partir de quand le GEO est-il devenu un sujet operationnel ?** L'acceleration date de 2024-2025 avec le deploiement des AI Overviews dans plus de 100 pays par Google. Avant 2024, le terme circulait surtout dans la litterature de recherche et chez quelques praticiens avances. ### Sources - [GEO: Generative Engine Optimization](https://arxiv.org/abs/2311.09735) — Aggarwal, Murthy, Kazemi, Princeton, 2023 - [Generative engine optimization](https://en.wikipedia.org/wiki/Generative_engine_optimization) — Wikipedia, édition 2026 - [AI Overviews: comment les moteurs génératifs choisissent leurs sources](https://ipullrank.com/ai-overviews-citation-research) — Mike King, iPullRank, 2024 --- ## Cartographie des moteurs génératifs en 2026 - URL : https://geo-academy.fr/fondations/lecon-02-cartographie-moteurs-generatifs - Description : Tour d'horizon des principaux moteurs génératifs en 2026, de ChatGPT Search a Perplexity en passant par Google AI Overviews, Gemini, Claude et Bing Copilot, avec leurs particularites de citation. - Auteur : theo-roux - Publie le : 2025-10-21 - Tags : debutant, moteurs, panorama, fondations **TL;DR.** Six moteurs generatifs dominent la conversation en 2026: ChatGPT Search, Perplexity, Google AI Overviews, Gemini, Claude et Bing Copilot. Chacun a sa logique de retrieval, son public et sa maniere de citer ou non les sources. Avant de mesurer ou d'optimiser, il faut savoir quel terrain on regarde, et choisir un perimetre de tracking adapte a son audience plutot que de tout couvrir des le premier mois. Le mot moteur génératif rassemble des produits assez différents les uns des autres. Avant de mesurer ou d'optimiser, il faut savoir quel terrain on regarde. En 2026, six surfaces dominent la conversation. ChatGPT Search, Perplexity, Google AI Overviews, Gemini, Claude et Bing Copilot. Chacune a sa logique, son public et sa manière de traiter les sources. Cette leçon les passé en revue. ## Ce qu'on appelle un moteur génératif Un moteur génératif est un produit dans lequel un utilisateur pose une question en langage naturel et reçoit une réponse synthétisée, souvent avec des références. Sous le capot, deux briques travaillent ensemble. Un module de recherche qui va chercher des sources externes, et un modèle de langage qui synthétise une réponse a partir de ces sources. C'est ce qu'on appelle une [architecture RAG pour rédacteurs](/tactiques/tactique-05-rag-pour-redacteurs), pour Retrieval Augmented Génération. Tous les moteurs cités dans cette leçon ne fonctionnent pas exactement ainsi, mais l'idée générale est la même. On distingue deux familles. Les moteurs natifs, dont l'expérience principale est une zone de conversation ou un champ de question. ChatGPT Search, Perplexity et Claude se rangent dans cette famille. Et les modes IA dans une SERP traditionnelle, ou un encadre génère s'ajoute en haut des résultats classiques. AI Overviews de Google et Bing Copilot dans Bing.com fonctionnent ainsi. Gemini joue sur les deux tableaux puisqu'il existe en mode chat dédié et en couche dans les produits Google. ## Tableau comparatif des six surfaces Voici une vue compacte des principaux moteurs et de leurs caracteristiques en 2026. | Moteur | Type | Cité ses sources | Lien sortant | Particularite | |--------|------|------------------|--------------|---------------| | ChatGPT Search | Natif | Oui, en bulles | Oui | Modèle OpenAI, recherche web temps réel | | Perplexity | Natif | Oui, numerotees | Oui | Forte densite de citations, focus réponse | | Google AI Overviews | Mode IA dans SERP | Oui, vignettes laterales | Oui | Très large reach, pas sur toutes les requêtes | | Gemini | Natif et intégration | Variable selon le produit | Parfois | Couplage étroit avec Search et Workspace | | Claude | Natif | Variable selon la version | Quand recherche activee | Forte qualité de raisonnement | | Bing Copilot | Mode IA dans SERP | Oui | Oui | Héritage Bing Chat, base de marché modeste | Ce tableau n'est pas exhaustif. D'autres acteurs existent en 2026, notamment Mistral Le Chat avec sa fonction de recherche, You.com, Brave Search avec son module IA et plusieurs assistants verticaux spécialisés dans la santé ou le juridique. Mais pour un projet GEO de première année, suivre les six surfaces du tableau couvre la majorité des cas. ## ChatGPT Search Lance fin 2024 et généralisé dans le courant 2025, ChatGPT Search est devenu en 2026 une porte d'entree majeure pour les requêtes informationnelles. La réponse est un texte avec des bulles cliquables qui pointent vers les sources. La sélection des sources combine une couche de recherche web et un classement interne dont le détail n'est pas public. ChatGPT cité plus volontiers des sites a forte autorité et des sites spécialisés avec [des contenus structurés en chunks](/tactiques/tactique-08-structured-chunking). Les marques absentes du top vingt classique de Google y sont parfois citées, ce qui ouvre des opportunités pour les acteurs de niche. ## Perplexity Perplexity est sans doute le moteur le plus intéressant pour apprendre le GEO. Il affiche les sources de manière très lisible, numerotees dans le texte. Cela permet d'observer rapidement quels sites sont cités pour quelles questions. Perplexity utilisé plusieurs modèles de langage selon le mode, et indexe le web en temps réel. Sa base d'utilisateurs est plus modeste que celle de ChatGPT mais son audience B to B est forte, en particulier chez les profils techniques. ## Google AI Overviews Les AI Overviews ne couvrent pas toutes les requêtes. Google active le bloc IA quand sa propre évaluation juge qu'une réponse synthétisée aide l'utilisateur. Sur les requêtes commerciales sensibles, sur les requêtes de marque et sur certaines requêtes legales ou médicales, l'Overview est moins fréquent. Quand il apparaît, il puise dans plusieurs sources et affiche des vignettes cliquables, distribuees selon une [logique de query fan-out](/tactiques/tactique-01-anatomie-query-fan-out). Les études publiées par iPullRank en 2024 et reprises en 2025 montrent que les sources citées recoupent en partie le top dix classique mais pas totalement, avec une préférence pour les contenus a forte [densite de citation comme dans l'étude Princeton](/tactiques/tactique-02-densite-citation-princeton). > Mesurer Google AI Overviews est plus difficile que mesurer ChatGPT, parce que le bloc n'est pas systématique et que la SERP varie selon le profil utilisateur. ## Gemini Gemini est a la fois un produit grand public, accessible sur gemini.google.com, et une couche présente dans Gmail, Docs et Search. Pour le GEO, le produit chat est le terrain pertinent. Gemini cité ses sources de manière variable. Sur certaines réponses, les citations sont visibles en pied de message. Sur d'autres, la réponse est générée sans référence. La logique de sélection privilegie les contenus issus de l'index Google, avec une préférence marquee pour les sites en forte autorité. Le tracking de Gemini resté delicat parce que les sorties varient beaucoup selon le compte connecte et la region. ## Claude Claude est le moteur le moins agressif sur la recherche web. Anthropic a longtemps mis l'accent sur le raisonnement plutôt que sur le récupération. Depuis 2024, Claude propose une recherche web optionnelle, et depuis 2025, certaines versions activent la recherche par defaut sur les requêtes récentes. Quand la recherche est activee, les sources sont citées en pied ou en marge de la réponse. La couverture de marchés francophones est inegale, ce qui en fait un moteur a tracker mais sur lequel il ne faut pas fonder une stratégie complète. ## Bing Copilot Bing Copilot est l'héritier direct de Bing Chat. La réponse générée s'affiche en haut des résultats classiques, avec des sources cliquables. La part de marché de Bing resté modeste en France et en Belgique, mais le moteur conserve une utilité pour deux raisons. Il sert d'index a plusieurs autres produits, et il révèle parfois des choix de citations différents de ceux de Google, ce qui aide a comprendre les biais de chacun. ## Quel périmètre de tracking choisir au démarrage Pour une première année de GEO, deux moteurs suffisent. Perplexity, parce qu'il est lisible et stable. ChatGPT Search, parce qu'il refLetA l'usage réel des decideurs. On ajoute Google AI Overviews dans un second temps quand les AI Overviews sont présents sur les requêtes du panier. Gemini, Claude et Bing Copilot peuvent être suivis ensuite, en mode contrôle qualité plutôt qu'en mode pilotage, via la [fiche outil Bing AI Performance](/outils/bing-ai-performance). Cette priorisation est defendable mais pas universelle. Une marque dont la cible est un acheteur dans une fonction technique aura intérêt a tracker Perplexity en premier. Une marque grand public avec un fort SEO suivra plutôt AI Overviews. Une marque B to B francophone avec un cycle long suivra ChatGPT en priorité. La règle est de choisir une surface ou la cible réelle pose ses questions, et d'éviter de tracker tout en même temps avec des ressources insuffisantes. ## Avant de passer a la suite Notez les deux moteurs sur lesquels vous voulez exister en priorité. Posez-leur trois questions sur votre marché. Regardez quelles sources sont citées et combien de fois la votre apparaît, en suivant les principes des [premières métriques de présence IA](/fondations/lecon-07-mesurer-presence-ia). Cette observation rapide donné déjà une photo plus utile que beaucoup de rapports payants. ### FAQ **Quels sont les moteurs generatifs a tracker en 2026 ?** Six moteurs concentrent l'essentiel de la conversation: ChatGPT Search, Perplexity, Google AI Overviews, Gemini, Claude et Bing Copilot. Selon votre audience, deux a quatre suffisent en general pour debuter. **Quelle est la difference entre Perplexity et Google AI Overviews ?** Perplexity est un moteur generatif natif, sa surface principale est l'experience conversationnelle avec citations explicites. AI Overviews est un mode IA integre a la SERP Google, qui apparait au-dessus des resultats classiques. **Quels moteurs citent leurs sources ?** Perplexity et ChatGPT Search citent systematiquement avec lien sortant. Google AI Overviews cite mais avec une visibilite moindre. Gemini et Claude citent plus discretement, le comportement varie selon le mode et la version. **Faut-il tracker tous les moteurs des le premier mois ?** Non, c'est une erreur tactique. Couvrir tout des le debut dilue l'effort. Choisir 2 a 4 moteurs adaptes a l'audience cible (B2B, grand public, francophone) permet une mesure plus utile a budget egal. **Quels moteurs ont la croissance la plus forte en 2026 ?** ChatGPT Search a connu la croissance la plus rapide en 2024-2025 avec son rollout aux utilisateurs connectes. AI Overviews a generalise sa presence dans plus de 100 pays. Perplexity gagne du terrain sur les audiences techniques et expertes. **Bing Copilot vaut-il la peine d'etre tracke ?** Cela depend du marche. Sur les audiences B2B nord-americaines et europeennes equipees d'Office 365, oui, Copilot est utilise quotidiennement. Sur le grand public francophone, son poids reste secondaire face a Google et ChatGPT. ### Sources - [Yext Search Trends Report 2025](https://www.yext.com/resources/search-trends-report-2025) — Yext, 2025 - [Generative engine optimization](https://en.wikipedia.org/wiki/Generative_engine_optimization) — Wikipedia, édition 2026 - [ChatGPT search rolls out to all logged-in users](https://openai.com/index/introducing-chatgpt-search) — OpenAI, 2024 - [Perplexity AI: how the answer engine works](https://www.perplexity.ai/hub/blog) — Perplexity AI, 2025 --- ## Citation en temps réel ou ingestion d'entraînement, deux jeux différents - URL : https://geo-academy.fr/fondations/lecon-03-citation-vs-ingestion - Description : Distinguer une citation produite par recherche en temps réel et une mention issue des données d'entraînement, comprendre pourquoi les leviers ne sont pas les mêmes et choisir la bataille a mener en priorité. - Auteur : theo-roux - Publie le : 2025-11-04 - Tags : debutant, rag, training-data, fondations **TL;DR.** Quand un moteur generatif cite une marque, deux mecanismes peuvent etre a l'oeuvre: une recherche en temps reel sur le web (RAG) ou une mention issue des donnees d'entrainement (memoire parametrique). Ces deux cas se ressemblent en surface mais s'optimisent de maniere opposee. Les leviers du RAG (qualite editoriale, structure, freshness) ne sont pas ceux de l'ingestion (notoriete, presence sur Wikipedia, anciennete du corpus). Quand un [moteur génératif cite votre marque](/fondations/lecon-04-comment-un-llm-cite), deux mecanismes très différents peuvent être a l'oeuvre. Soit le moteur a fait une recherche en temps réel sur le web et a récupère une de vos pages comme source, soit il a appris l'existence de votre marque pendant son entraînement et la mentionne sans aller la chercher. Ces deux cas se ressemblent en surface mais s'optimisent de manières opposees. Cette leçon les séparé proprement. ## Une même réponse, deux origines Imaginons une question posee a ChatGPT. Quel logiciel utiliser pour gerer un cabinet de kinesitherapie ? Le modèle renvoie une réponse qui mentionne trois noms. En apparence, les trois marques sont a égalité dans la réponse. En réalité, la mecanique peut differer pour chacune. La première marque est citée parce que ChatGPT, en lancant une recherche web, a trouve un article comparatif sur un site spécialisé. Il a extrait le nom et a cité la source. Si demain l'article disparaît, la mention disparaît aussi. C'est une citation en temps réel. La deuxième marque est citée parce que ChatGPT a vu son nom apparaître des centaines de fois dans son corpus d'entraînement, sur des forums, des blogs, des fiches produit, des articles de presse. Le modèle a memorise cette présence et la restitue même quand il ne fait pas de recherche. Si la marque disparaît demain du web, le modèle la citera encore pendant des mois, jusqu'au prochain reentrainement. C'est une mention par ingestion. La troisième marque combine les deux. Elle est connue du modèle et son site est cité via la recherche. La mention est plus stable et plus précise, parce que les deux mecanismes se renforcent. ## Le pipeline RAG en bref La citation en temps réel passé par un [pipeline RAG comme l'expliquent ces principes pour rédacteurs](/tactiques/tactique-05-rag-pour-redacteurs). Le moteur reçoit la question. Une couche de recherche transforme la question en requête et interroge un index web. Les résultats sont filtres puis donnés au modèle en contexte. Le modèle génère une réponse en se servant de ce contexte et indique quelques sources. Pour qu'une marque soit citée dans ce mode, il faut que son site soit récupère par la couche de recherche, juge pertinent par le filtre et choisi par le modèle comme appui factuel. Cette mecanique donné des leviers concrets. Le contenu doit être indexable et frais. Il doit contenir des éléments factuels clairs qui correspondent a la question. Il doit être hebergeable rapidement, sans script lourd qui empeche l'extraction. Il doit aussi avoir un [signal d'autorité E-E-A-T reconnu par le moteur](/fondations/lecon-06-eeat-pour-geo), sans quoi le filtre l'ecartera au profit d'autres sources. C'est la partie du GEO qui ressemble le plus au SEO classique. ## L'ingestion d'entraînement en bref L'ingestion ne passé pas par une recherche en temps réel. Elle se joue avant, lors de la collecte du corpus qui sert a former ou a affiner le modèle. Les éditeurs collectent des données web publiques, des livres, des articles de presse, des forums, parfois des bases de données spécialisées. Le modèle apprend des regularites statistiques. Si une marque apparaît souvent, dans des contextes coherents, le modèle finit par savoir ce qu'elle vend, a quoi elle ressemble, et la mentionne quand on l'interroge. Cette mecanique donné d'autres leviers. La présence en volume sur le web public compte. Les articles de presse, les communiques, les listes comparatives, les Wikipedia, les forums, les annuaires sectoriels nourrissent le modèle. La coherence de la marque compte aussi. Si le nom est associe a une catégorie précise sur des dizaines de sites, le modèle apprend cette association via les [entités liées à Wikidata](/tactiques/tactique-13-entites-wikidata). Si la marque change de positionnement tous les six mois, le modèle garde un melange flou. Surtout, l'ingestion a une horloge plus lente. Un nouveau contenu mis en ligne aujourd'hui peut être cité par RAG dans la semaine. Il sera ingere, au mieux, dans la prochaine version du modèle, c'est-a-dire dans plusieurs mois. C'est ce qui rend la stratégie d'ingestion plus exigeante en patience. ## Comparaison rapide des deux mecaniques | Critere | Citation RAG | Mention par ingestion | |---------|--------------|----------------------| | Origine | Recherche web en temps réel | Corpus d'entraînement du modèle | | Délai | Quelques heures a quelques jours | Plusieurs mois | | Stabilité | Variable, dépend de la SERP | Forte tant que le modèle est en service | | Levier principal | Indexabilite, fraicheur, autorité | Volume de mentions, coherence de marque | | Tracking | Possible avec un panier de prompts | Possible mais plus complique | | Effacement possible | Oui, en supprimant les pages | Très difficile, lie au reentrainement | Cette différence de délai est essentielle. Beaucoup d'organisations engagent une stratégie GEO en 2026 avec l'idée qu'on peut piloter chaque mention. C'est vrai pour la couche RAG. C'est largement faux pour la couche d'ingestion. Une partie de votre présence dans les réponses génératives est figee jusqu'au prochain entraînement. ## Quel jeu jouer en priorité La réponse dépend de votre marché. Si vos clients posent des questions très datees ou très précises, par exemple un comparatif de prix ou une question sur une régulation récente, la citation RAG porte la majeure partie de la valeur. Optimisez l'indexabilite, la fraicheur, la densite factuelle. Si vos clients posent des questions de marque larges, par exemple quels sont les acteurs principaux d'un secteur, l'ingestion porte la majeure partie de la valeur. Travaillez la présence en volume sur les sources que les éditeurs ingerent, ce qui inclut les Wikipedia, les annuaires, la presse spécialisée. Dans la plupart des cas, les deux jeux se jouent en parallèle, mais avec des budgets et des horizons différents. Un projet de six mois avec un budget modeste fera plus de progrès sur la couche RAG que sur l'ingestion. Un projet de deux ans avec une marque B to B établie verra ses gains les plus durables sur la couche d'ingestion. > La couche RAG, c'est de la performance. La couche d'ingestion, c'est du capital. ## Le tracking ne se fait pas avec les mêmes outils Pour la couche RAG, le tracking consiste a interroger les moteurs avec un panier de prompts et a observer si la marque est citée dans la réponse, idéalement avec un lien. Plusieurs outils du marché font cela, dont [Profound](/outils/profound), [Otterly](/outils/otterly-ai), [Peec](/outils/peec-ai) ou des modules dans des plateformes SEO établies. La métrique la plus utile est le [citation share construit avec le Citation Quality Score](/methodologie/citation-quality-score), c'est-a-dire la part des prompts du panier ou la marque est citée. Pour la couche d'ingestion, le tracking consiste a poser des questions ouvertes sans déclencher de recherche, en observant si la marque est mentionnée. La métrique est la brand mention frequency. Les outils sont moins matures, beaucoup d'équipes utilisent encore des scripts maison qui interrogent les API des modèles avec la recherche desactivee. Le rapport Profound de 2025 documente cette pratique pour plusieurs marques cosmetiques. ## Avant de passer a la suite Posez deux questions a un moteur génératif sur votre marché. La première avec recherche activee, la seconde avec recherche desactivee. Comparez les réponses, en suivant les principes du [prompt set de base](/fondations/lecon-08-prompt-set-de-base). Si votre marque apparaît dans les deux, vous etes déjà sur les deux jeux. Si elle apparaît dans une seule, vous savez quel jeu vous resté a jouer. ### FAQ **Comment savoir si une citation vient du RAG ou de l'entrainement ?** La presence d'un lien sortant et d'une mention de la date courante sont des indices forts du RAG. L'absence de lien et l'evocation d'evenements anterieurs a la date d'entrainement du modele suggerent une mention parametrique. **Quels leviers fonctionnent pour le RAG en temps reel ?** La qualite editoriale, la structure du contenu (chunks), la freshness, la presence dans les SERP de retrieval, l'autorite du domaine, le balisage Schema.org. Ce sont les leviers proches du SEO classique enrichi de specificites GEO. **Quels leviers fonctionnent pour l'ingestion d'entrainement ?** La notoriete de la marque, la presence sur Wikipedia et Wikidata, la longevite du corpus, les mentions dans des sources de grande autorite (presse, Forrester, Gartner). Ces leviers prennent du temps a installer. **Faut-il privilegier l'un ou l'autre ?** Cela depend de l'horizon. A court terme (semaines, mois), les leviers RAG donnent des resultats. A long terme (annees), les leviers d'ingestion construisent une presence durable. La plupart des marques travaillent les deux. **Le tracking est-il different selon le mecanisme ?** Oui. Le tracking du RAG se fait via des outils qui rejouent des prompts et observent les citations (Profound, Peec.ai). Le tracking de l'ingestion se fait via des prompts hors mode Search (ChatGPT sans web), ou la memoire parametrique repond seule. **Cette distinction recoupe-t-elle GEO vs LLMO ?** Partiellement. Le GEO se concentre sur le RAG (citation temps reel). Le LLMO couvre la memoire parametrique. Mais en pratique, les deux disciplines se chevauchent et beaucoup d'auteurs francophones utilisent les termes de maniere interchangeable. ### Sources - [GEO: Generative Engine Optimization](https://arxiv.org/abs/2311.09735) — Aggarwal et al., Princeton, 2023 - [Brand visibility in AI answers](https://www.profound.so/blog/brand-mention-frequency) — Profound, 2025 - [Le SEO mort, vive le GEO](https://www.vincentterrasi.com/geo-vs-seo) — Vincent Terrasi, 2024 --- ## Comment un moteur génératif choisit ce qu'il cité - URL : https://geo-academy.fr/fondations/lecon-04-comment-un-llm-cite - Description : La mecanique RAG expliquee simplement, du parsing de la requête a la génération, avec les criteres de sélection des sources et les leviers d'action sur chaque étape pour gagner en visibilité. - Auteur : theo-roux - Publie le : 2025-11-19 - Tags : debutant, rag, moteurs, fondations **TL;DR.** Le pipeline RAG d'un moteur generatif se decompose en cinq etapes: parsing de la requete, retrieval lexical et semantique, ranking, selection finale, generation. Chaque etape a ses propres criteres et ses propres leviers d'action. Comprendre la mecanique permet d'identifier ou agir pour augmenter ses chances d'etre cite, plutot que de tout optimiser en aveugle. Quand un moteur génératif renvoie une réponse avec trois sources, le cheminement qui a conduit a ces trois choix est plus complexe qu'il n'y paraît. Il faut imaginer un pipeline en cinq étapes. Comprendre chaque étape, c'est savoir ou agir pour augmenter ses chances d'être cité. Cette leçon détaillé la mecanique en termes simples, sans formules, et indique sur quoi un éditeur peut peser. ## Les cinq étapes d'un pipeline de citation Pour répondre a une question, un moteur génératif passé par cinq étapes. La reformulation de la requête, la récupération des candidats, le classement, la mise en contexte du modèle et enfin la génération du texte avec ses citations. Chaque étape a ses règles propres et son lot de leviers. La première étape transforme votre question en une requête machine. Si vous demandez quelle est la différence entré TF et CF, le moteur reformule en interne, généralement en plusieurs requêtes plus courtes et plus précises selon une [logique de query fan-out](/tactiques/tactique-01-anatomie-query-fan-out). Cette étape est invisible pour l'utilisateur mais décisive. Si la reformulation est mauvaise, la recherche partira dans une mauvaise direction. Pour un éditeur, le levier consiste a couvrir les variantes lexicales du sujet sur la page, sans bourrage. Si la page contient les termes Trust Flow, Citation Flow, Majestic et autorité de domaine, la chance d'être attrapee par une reformulation est plus élevée. La deuxième étape récupère les candidats. Un moteur va chercher dans son index les documents qui correspondent a la requête reformulee. Deux logiques cohabitent. La récupération lexicale, qui repose sur des correspondances de mots, et la récupération semantique, qui repose sur des [embeddings et leur optimisation](/tactiques/tactique-09-embedding-optimization), c'est-a-dire des représentations vectorielles du sens. Les moteurs génératifs combinent les deux. Pour un éditeur, le levier consiste a être indexe et a être clairement structure. Une page lourde, mal balisee ou bloquee aux crawlers ne fait pas partie du jeu. ## Le classement des candidats La troisième étape classe les candidats récupérés. La couche de recherche en garde plusieurs dizaines, parfois une centaine, et le moteur doit décider lesquels donner au modèle. Les criteres de classement sont multiples et combines. La pertinence par rapport a la requête reformulee, l'autorité du domaine, la fraicheur du contenu, la qualité percue, la coherence avec d'autres sources et, dans le cas de Google, le signal d'expérience utilisateur via Core Web Vitals et historique de comportement. > La page parfaite n'existe pas. Une page bien classee est une page qui équilibre cinq ou six signaux, jamais une qui en maximise un seul. Pour un éditeur, ce qui paie sur cette étape est ce qui paie aussi sur le SEO classique. Une autorité de marque construite dans le temps, une couverture coherente d'un sujet, une mise a jour des contenus quand les faits changent. Mais un signal supplémentaire entré en jeu. La densite factuelle. Une page qui contient des chiffres, des dates, des définitions et des citations bien sourcees plait davantage aux moteurs génératifs, comme le démontre l'[étude sur la densité de citation Princeton](/tactiques/tactique-02-densite-citation-princeton), parce qu'elle facilité le travail du modèle dans l'étape suivante. ## La mise en contexte du modèle La quatrième étape donné au modèle de langage les sources retenues, sous forme de fragments, selon les principes du [structured chunking](/tactiques/tactique-08-structured-chunking). Le modèle ne lit pas l'intégralité des pages, il reçoit des extraits, généralement quelques centaines a quelques milliers de tokens par source. Le choix des extraits est crucial. Si le moteur extrait une phrase peu informative, elle ne servira pas a grand-chose dans la réponse, même si la page entiere est excellente. Pour un éditeur, le levier consiste a écrire des paragraphes auto-suffisants. Une définition complète dans un seul paragraphe, une statistique avec sa source dans la même phrase, une recommandation accompagnee de ses conditions sans renvoi au paragraphe d'avant. Cette logique va a contre-courant d'une partie du copywriting moderne qui aime les transitions et les références implicites. En GEO, on écrit pour être extrait, pas seulement pour être lu. ## La génération et la citation La cinquième étape génère la réponse. Le modèle compose un texte en s'appuyant sur les fragments de contexte, ajoute du lissage stylistique et insère les citations. Les citations ne sont pas distribuees au hasard. Le modèle tend a citer la source la plus précise sur chaque élément factuel, et la source la plus autoritaire sur les éléments de cadrage. Une page généraliste avec des chiffres flous gagnera moins de citations qu'une page spécialisée avec une statistique attribuee. Le papier de Princeton de 2023 a testé neuf stratégies de rédaction sur cette étape. Trois ont montré des gains nets de visibilité. L'ajout de citations explicites a des sources tierces dans le texte, l'ajout de statistiques chiffrees et l'utilisation d'un vocabulaire technique précis. Ce sont les leviers redactionnels du GEO les mieux documentes a ce jour, formalisés dans le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). ## Tableau recapitulatif des étapes et leviers | Étape | Ce que fait le moteur | Levier éditeur | |-------|------------------------|-----------------| | Reformulation | Transforme la question en requêtes machines | Couvrir les variantes lexicales du sujet | | Récupération | Récupère les candidats par lexique et semantique | Être indexable, bien balise, structure | | Classement | Trie les candidats selon plusieurs signaux | Autorité, fraicheur, densite factuelle | | Mise en contexte | Extrait des fragments des sources retenues | Écrire des paragraphes auto-suffisants | | Génération | Compose la réponse avec citations | Citations explicites, statistiques, lexique précis | Ce tableau ne dit pas que tous les moteurs fonctionnent exactement ainsi. Mais le squelette est partage par la majorité des produits du marché en 2026, y compris ChatGPT Search, Perplexity et Google AI Overviews, comme détaillé dans la [cartographie des moteurs génératifs 2026](/fondations/lecon-02-cartographie-moteurs-generatifs). ## La récupération lexicale et la récupération semantique Un mot sur les deux logiques de récupération, parce qu'elles ont des conséquences pratiques. La récupération lexicale est rapide et explicable. Si le mot apparaît dans le document et dans la requête, le document est candidat. C'est ce que fait depuis longtemps un moteur classique avec des techniques comme BM25. La récupération semantique est plus subtile. Elle transforme la requête et les documents en vecteurs et compare leur proximite. Un document peut être récupère même s'il ne contient pas le mot exact de la requête, parce que son sens est proche. Pour un éditeur, la conséquence est qu'il devient inutile de bourrer une page de mots-clés exacts. La récupération semantique attrape la page si le sujet est traite, même avec un autre vocabulaire. Mais inversement, une page floue qui parle d'un sujet sans le nommer clairement risque de ne plus être attrapee, ni en lexical ni en semantique. La règle est de nommer le sujet sans répétition mecanique, en utilisant les termes que les utilisateurs utilisent réellement. ## Avant de passer a la suite La prochaine fois qu'un moteur génératif vous répond avec trois sources, prenez deux minutes pour deviner ou se sont jouees les choses. Était-ce une question de pertinence ou d'autorité ? Les pages citées sont-elles structurées ou massives ? Y a-t-il des chiffres dans la réponse, et si oui, sont-ils attribues a une source ? Cette habitude d'observation vaut plus que beaucoup de cours. ### FAQ **Quelles sont les cinq etapes du pipeline RAG ?** Parsing de la requete (decomposer l'intention), retrieval (chercher des candidats), ranking (les ordonner), selection (en garder 3 a 10), generation (produire la reponse en citant). Chaque etape a ses leviers. **Quelle est la difference entre retrieval lexical et semantique ?** Le retrieval lexical (BM25) cherche les correspondances de mots. Le retrieval semantique (embeddings) cherche les proximites de sens. Les pipelines modernes combinent les deux pour eviter de manquer des sources pertinentes. **Combien de sources sont retenues dans la selection finale ?** Generalement entre 3 et 10 sources, selon les moteurs et la complexite de la requete. Perplexity et ChatGPT Search affichent souvent 5 a 8 sources. AI Overviews en cite generalement 3 a 5 visibles. **Sur quels criteres une source est-elle selectionnee ?** Pertinence (correspondance a l'intention), qualite (E-E-A-T, signaux d'autorite), freshness (date de publication), structure (chunks bien decoupes), unicite (apporter une information non redondante avec les autres sources retenues). **Quelle etape est la plus manipulable cote editeur ?** Le retrieval et la selection. Le parsing depend du moteur, le ranking integre des signaux globaux, la generation est le moins controlable. Optimiser le retrieval (qualite, structure, balisage) et faciliter la selection (chunks autonomes, autorite) donne les meilleurs resultats. **Le pipeline RAG est-il identique sur tous les moteurs ?** Non. Chaque moteur (Perplexity, ChatGPT Search, AI Overviews) a sa propre implementation. Les principes generaux du papier de Lewis et al restent valides, mais les ponderations et les details varient et evoluent dans le temps. ### Sources - [Retrieval-Augmented Génération for Knowledge-Intensive NLP Tasks](https://arxiv.org/abs/2005.11401) — Lewis et al., 2020 - [GEO: Generative Engine Optimization](https://arxiv.org/abs/2311.09735) — Aggarwal et al., 2023 - [AI Overviews citation patterns](https://ipullrank.com/ai-overviews-citation-research) — Mike King, iPullRank, 2024 - [Comment fonctionne un moteur de recherche IA](https://aleydasolis.com/en/search-marketing/ai-search-citations) — Aleyda Solis, 2024 --- ## Le fichier llms.txt en 2026, utile ou simple effet de mode - URL : https://geo-academy.fr/fondations/lecon-05-llms-txt-utile-ou-pas - Description : État de l'adoption du fichier llms.txt deux ans après sa proposition, ce qu'il fait réellement, ce qu'il ne fait pas, et la position raisonnable a adopter pour un site qui débute en GEO. - Auteur : theo-roux - Publie le : 2025-12-08 - Tags : debutant, llms-txt, standards, fondations **TL;DR.** Le fichier llms.txt, propose par Jeremy Howard en septembre 2024, vise a fournir aux moteurs generatifs une carte markdown du site. Deux ans plus tard, l'adoption est mesurable mais limitee a quelques milliers de domaines, et aucun moteur generatif majeur n'a confirme officiellement l'utiliser. Pour un site qui debute en GEO, le ratio cout-benefice du llms.txt est faible: utile si simple a deployer, pas prioritaire si cela demande un effort. Le fichier llms.txt fait beaucoup parler de lui depuis 2024. La proposition est simple. Un site publié a la racine un petit fichier markdown qui résumé son contenu et donné aux [moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs) une carte des pages les plus utiles a citer. Deux ans plus tard, en 2026, le bilan de l'adoption est plus mitige que le bruit autour du sujet ne le laisse penser. Cette leçon fait le point sans complaisance et donné une position de travail, complétée par notre [décryptage du protocole llms.txt](/tactiques/tactique-03-llms-txt-protocole-decryptage). ## Ce que propose la spécification Jeremy Howard a publié la spécification llms.txt en septembre 2024 sur le site llmstxt.org. L'idée est de faciliter le travail d'un modèle de langage qui voudrait comprendre un site sans avoir a parcourir son arborescence complète. Le fichier vit a la racine, comme robots.txt, mais sert un autre objectif. Il décrit en markdown la nature du site, ses sections principales, les liens vers les pages de référence et, dans une version étendue appelée llms-full.txt, le contenu intégral consolide. Un fichier llms.txt minimal ressemble a une fiche de présentation. Le nom du site, une description courte, des sections nommees avec des liens. Pour un site qui edite des guides et un blog, on aurait par exemple une section guides avec dix liens, une section blog avec les articles principaux et une section a propos avec les pages legales et l'équipe. Le format markdown est volontairement simple pour qu'un modèle puisse l'avaler en quelques tokens. ## Ce qu'il ne propose pas La spécification n'oblige rien. Elle ne dit pas qu'un moteur doit lire le fichier, ni le respecter. Elle propose un standard ouvert, comme le furent en leur temps robots.txt ou le sitemap.xml. Elle n'a pas le poids d'une norme W3C, encore moins d'un protocole adopte par les principaux acteurs. Et elle ne remplace pas les fichiers existants. Un site continue d'avoir besoin d'un robots.txt pour gerer le crawl, d'un sitemap.xml pour aider l'indexation et de balises canonicales pour gerer les doublons. Le llms.txt est une couche supplémentaire optionnelle, pas un remplacement. ## L'adoption par les éditeurs Plusieurs études en 2025 ont compte les fichiers llms.txt présents sur les sites. Une enquête d'Ahrefs sur cinquante mille domaines a forte autorité a trouve un fichier llms.txt sur environ huit pour cent d'entré eux. La majorité venaient d'éditeurs anglophones tech, y compris Stripe, Anthropic et plusieurs éditeurs de documentation. Les sites francophones étaient nettement moins représentés, autour de deux pour cent. Cette adoption a deux explications. Pour un éditeur de documentation technique, fournir un llms.txt est une opération simple et coherente avec le métier. Pour un éditeur grand public, le retour sur investissement est moins clair. La spécification est jeune, les moteurs ne s'en servent pas tous, et les outils de génération automatique du fichier sont encore inegaux. ## L'adoption par les moteurs C'est la que le bilan devient intéressant. En 2026, aucun grand moteur génératif n'a confirme officiellement utiliser le fichier llms.txt comme source preferentielle. Anthropic publié un fichier llms.txt sur son propre site mais n'indique pas que Claude le consomme. Google a publié en 2024 une note assez froide sur le sujet, en rappelant que ses crawlers savent déjà parcourir un site. Perplexity n'a pas commente publiquement. ChatGPT Search, idem. Plusieurs experimentations indépendantes ont testé si la présence d'un fichier llms.txt augmente la visibilité dans les réponses génératives. Les résultats sont mitiges et difficiles a isoler des autres facteurs, parce que les sites qui prennent la peine de publier un llms.txt sont aussi ceux qui ont une bonne hygiene technique générale, comme un suivi rigoureux des [bots IA et leur comportement](/tactiques/tactique-14-bots-ia-comportement). La conclusion honnête en 2026 est que l'effet, s'il existe, est faible et non confirme. ## Le risque de confusion Une bonne partie du bruit autour de llms.txt vient de confusions de vocabulaire. On confond llms.txt avec une opt-in pour le scraping IA, ce qui n'est pas son objet. On confond llms.txt avec un fichier qui empecherait les modèles d'utiliser un site, ce qui n'est pas son objet non plus. On confond llms.txt avec une garantie de citation, alors qu'il ne donne aucune garantie. Plusieurs articles publiés en 2024 et 2025 ont vendu le llms.txt comme une solution miracle pour le GEO, ce qui a contribue a la mefiance qu'on observe en 2026. C'est l'une des [erreurs débutant les plus fréquentes](/fondations/lecon-09-erreurs-debutant). ## Comparaison avec les fichiers existants Voici ce que chaque fichier resout et ce qu'il ne resout pas. | Fichier | Objet principal | Reconnu par les moteurs | Obligatoire | |---------|----------------|-------------------------|-------------| | robots.txt | Contrôle du crawl | Oui, partiellement | Non, mais standard de fait | | sitemap.xml | Aide a la découverte de pages | Oui, totalement | Non, mais recommande | | llms.txt | Résumé oriente modèle de langage | Pas confirme | Non, optionnel | | balises canonicales | Gestion des doublons | Oui | Recommande sur les CMS | Cette comparaison aide a remettre llms.txt a sa juste place. Il est moins reconnu et moins critique que les trois autres, mais pas inutile pour autant. > Le llms.txt est un signal, pas un sesame. Il ne remplace ni un site indexable, ni une présence de marque sur le web, ni une autorité construite dans le temps. ## Faut-il le publier malgre tout La position raisonnable en 2026 est celle d'un effort proportionne. Pour un site de documentation technique, oui, sans hésiter. La génération est simple, le fichier rend le contenu plus lisible pour un modèle, et la maintenance est léger. Pour un site de marque grand public, c'est defendable mais pas prioritaire. La même heure consacree a structurer une page produit ou a publier une statistique source produira plus de valeur visible dans les moteurs génératifs, conformément aux principes du [Brand Context Optimization d'Olaf Kopp](/tactiques/tactique-04-brand-context-optimization). Pour un site naissant avec peu d'autorité, le llms.txt n'est pas un raccourci. Tant que la marque n'est pas reconnue par ailleurs, le fichier n'inversera pas la situation. Une approche pragmatique consiste a publier un llms.txt minimal, sans s'epuiser a le maintenir parfait, et a observer les logs sur six mois. Si on voit des bots de moteurs génératifs aller le chercher de manière repetee, on l'enrichit. Si rien ne se passé, on garde la version légère et on investit son temps ailleurs. ## Avant de passer a la suite Verifiez si votre site a un llms.txt. Si oui, demandez-vous quand il a été mis a jour pour la dernière fois et s'il refLetA encore vos pages les plus importantes. Si non, regardez vos logs serveur sur les trois derniers mois pour savoir si des user-agents associes a des modèles passent régulièrement chez vous, en commençant par la [feuille de route 90 jours](/fondations/lecon-10-feuille-de-route-90-jours). Cette observation guidera votre décision mieux que n'importe quel article généraliste sur le sujet. ### FAQ **Qu'est-ce que le fichier llms.txt ?** Un fichier markdown publie a la racine d'un site qui resume le contenu et donne aux moteurs generatifs une carte des pages les plus utiles a citer. Le format prevoit un titre H1, un blockquote de description, et des sections H2 avec des liens markdown. **Quels moteurs utilisent llms.txt en 2026 ?** Aucun moteur generatif majeur n'a confirme officiellement l'utiliser pour son grounding. Quelques outils marginaux et certains pipelines RAG d'entreprise s'en servent, mais ChatGPT, Perplexity, AI Overviews, Gemini et Claude n'ont pas declare l'integrer. **Faut-il publier un llms.txt pour debuter en GEO ?** Pas en priorite. Si la generation d'un llms.txt est simple (CMS qui le genere automatiquement), pas de raison de s'en priver. Si cela demande un effort technique consequent, ce n'est pas le bon investissement pour debuter. **Quelle difference entre llms.txt et robots.txt ?** robots.txt indique aux crawlers ce qu'ils peuvent ou non indexer. llms.txt cherche a guider les moteurs generatifs vers le contenu pertinent. Le premier est universellement respecte, le second n'est respecte par presque personne. **Quelle difference entre llms.txt et sitemap.xml ?** sitemap.xml liste exhaustivement les URLs pour les crawlers. llms.txt resume editorialement le site dans un format lisible. Le sitemap est technique, le llms.txt est editorial. **llms.txt va-t-il devenir un standard ?** C'est incertain. La proposition n'a pas ete validee par un organisme de normalisation. Sans adoption officielle par les grands moteurs, le format restera marginal. Une evolution est possible si Google ou OpenAI le reconnaissent. ### Sources - [The /llms.txt file proposal](https://llmstxt.org/) — Jeremy Howard, 2024 - [llms.txt explained](https://en.wikipedia.org/wiki/Llms.txt) — Wikipedia, édition 2025 - [Why llms.txt is mostly marketing](https://www.olafkopp.com/llms-txt-critique) — Olaf Kopp, 2025 - [Adoption survey of llms.txt files](https://ahrefs.com/blog/llms-txt-survey) — Ahrefs, 2025 --- ## Pourquoi le E-E-A-T pese plus dans le GEO que dans le SEO classique - URL : https://geo-academy.fr/fondations/lecon-06-eeat-pour-geo - Description : Le cadre expérience, expertise, autorité et fiabilité n'est pas une nouveauté, mais son poids change quand un moteur synthétisé une réponse a partir de plusieurs sources et choisit qui citer. - Auteur : theo-roux - Publie le : 2025-12-22 - Tags : debutant, eeat, qualite, fondations **TL;DR.** Le cadre E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) existe dans les guidelines Google depuis 2014 mais devient un filtre actif en GEO. Quand un moteur generatif doit choisir entre dix sources pour repondre, il ne favorise pas la mieux positionnee dans la SERP, il favorise celle qui inspire le plus confiance dans son contenu et son auteur. Le E-E-A-T passe de coquetterie qualiticien a critere de selection. Le sigle E-E-A-T existe dans les guidelines de Google depuis 2014, enrichi du second E pour expérience en 2022. Beaucoup l'ont vu comme une coquetterie de qualiticien jusqu'au moment ou les [moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs) ont rendu la question plus concrète. Quand un modèle doit choisir entre dix sources pour répondre a une question, ce n'est pas la mieux positionnée dans la SERP qu'il favorise, c'est celle qui inspire le plus de confiance dans son contenu et son [auteur, comme l'illustre le travail de Camille Lefebvre](/auteurs/camille-lefebvre). Le E-E-A-T devient un filtre actif. Cette leçon explique comment. ## Le cadre en quatre piliers E-E-A-T signifie Expérience, Expertise, Authoritativeness, Trustworthiness. Les guidelines de qualité des evaluateurs humains de Google le decrivent comme un ensemble de signaux qui aident a juger de la qualité d'une page. Expérience désigne la connaissance directe d'un sujet par celui qui écrit. Expertise désigne la maîtrise technique. Autorité désigne la reconnaissance par les pairs. Fiabilité désigne la confiance qu'on peut accorder aux faits, aux sources et a la présentation. Le quatrième pilier, fiabilité, est présente comme le plus important par Google lui-même. Pour un SEO classique, ces signaux comptent mais leur effet est lent. Un site avec un E-E-A-T faible peut classer correctement sur des requêtes peu sensibles. Pour un moteur génératif, les choses changent. Quand le moteur synthétisé une réponse, il ne peut pas se permettre de reprendre un fait douteux ou de citer une source compromise, un point central dans la [mécanique de citation d'un LLM](/fondations/lecon-04-comment-un-llm-cite). Le filtre E-E-A-T est plus actif et plus rapide. ## Pourquoi le poids change en GEO Trois raisons expliquent ce changement de poids. D'abord, la responsabilité éditoriale du moteur. Quand Google renvoyait un lien, l'utilisateur savait qu'il quittait Google pour aller chez l'éditeur. Quand Google renvoie une réponse synthétisée, c'est Google qui parle. Citer une source douteuse exposé le moteur a des plaintes, des bad press, parfois des actions legales. Le moteur a donc intérêt a filtrer durement. Ensuite, la consolidation des réponses. Sur une SERP classique, un utilisateur voit dix liens et fait son choix. Sur une réponse générative, l'utilisateur voit une synthèse et trois sources. La pression sur la qualité de chaque source est plus forte parce que le choix est plus restreint. Enfin, la trace de marque. Une réponse générative cité explicitement les sources, parfois en bulle, parfois en pied de message. Une marque associee a une réponse de qualité gagne de la confiance. Une marque associee a une réponse fausse en perd. Les moteurs cherchent donc a citer des marques dont la réputation soutient leur propre réputation. ## Les quatre piliers traduits en signaux concrets Voici comment chacun des quatre piliers se traduit en signaux observables. | Pilier | Signaux que les moteurs reperent | Levier éditeur | |--------|----------------------------------|-----------------| | Expérience | Avis de première main, photos originales, récits de cas | Documenter le terrain et l'avoir vraiment fait | | Expertise | Auteur identifié, qualifications, anciennete sur le sujet | Pages auteur complétés, biographies a jour | | Autorité | Citations entrantes, mentions presse, présence wikipedia | Relations presse, contributions sectorielles | | Fiabilité | Sources citées, dates, mentions legales claires, https | Hygiene éditoriale, attribution rigoureuse | Ces signaux ne sont pas tous mesurables par un crawler. Mais les moteurs en deduisent l'essentiel par croisement. Une page d'auteur complète avec un lien vers un profil LinkedIn coherent et une bibliographie compte plus qu'une simple mention de nom en pied d'article. ## L'expérience, le pilier ajoute en 2022 Le second E a été ajoute en 2022 pour distinguer la connaissance théorique de la connaissance vecue. Sur des sujets ou l'expérience compte, par exemple un avis sur un produit ou un retour de voyage, un auteur qui a effectivement utilisé le produit ou fait le voyage est juge plus crédible qu'un auteur qui agrege des sources. Pour les moteurs génératifs, ce pilier prend une importance particulière parce qu'il est difficile a fabriquer. Un modèle de langage peut produire un texte qui ressemble a un avis. Il ne peut pas produire une photo originale d'un produit pris en main, ni un détail vecu d'un service mal rendu. Les pages qui contiennent ces signaux d'expérience sont, en 2026, sur-citées par rapport a leur autorité brute. ## L'expertise, plus difficile a faker qu'on ne croit L'expertise se signale par l'auteur identifié. Une page sans auteur, ou avec un auteur generique du type équipe rédactionnelle, transmet un signal faible. Une page avec un auteur nomme, photo, biographie courte, lien vers un profil professionnel et historique de publications transmet un signal fort. Les moteurs croisent ces informations avec d'autres mentions du nom ailleurs sur le web. Si l'auteur est aussi cité dans des conferences, des articles de presse ou des publications scientifiques, le signal s'amplifie. Cela explique pourquoi les sites qui multiplient les pseudos ou qui publient sous des bylines flottantes perdent du terrain en GEO. Le signal d'expertise est diffuse, alors qu'un site avec un noyau d'auteurs identifiés concentre les références. ## L'autorité, le pilier le plus lent L'autorité se construit dans le temps et hors du site. Elle vient des liens entrants, des mentions, des citations dans la presse et la littérature professionnelle, ce qui rejoint la logique du [Brand Context Optimization](/tactiques/tactique-04-brand-context-optimization). Pour un éditeur qui débute, l'autorité est le pilier le plus difficile a influencer rapidement. Mais c'est aussi celui qui pese le plus sur la décision finale d'un moteur de citer ou non. Une marque inconnue avec une page parfaite peut être ignorée au profit d'une marque connue avec une page mediocre. Cette injustice est documentee. Le papier de Princeton de 2023 montrait que les modifications de contenu produisaient des gains plus modestes sur les sources a faible autorité que sur les sources établies, comme le mesure notre [étude maison sur la citation density](/tactiques/tactique-11-citation-density-etude). La conséquence pratique est qu'un projet GEO doit toujours combiner du travail de contenu et du travail de marque. ## La fiabilité, le pilier sous-estime La fiabilité est présentée par Google comme le pilier le plus important. Elle se mesure a des choses banales mais pesantes. Mentions legales complétés, équipe identifiable, politique éditoriale écrite, sources attribuees, dates de publication et de mise a jour visibles, https obligatoire, absence de fautes, absence de publicité trompeuse. Beaucoup de sites perdent des citations parce qu'ils negligent ces fondamentaux. Une page brillante sur un site sans politique de correction est un drapeau rouge pour un moteur génératif. > Si votre site n'a pas de page mentions legales a jour, n'attendez pas qu'un moteur vous cité sur des sujets sensibles. ## Audit rapide de votre E-E-A-T Quelques vérifications simples valent un audit complet. Chaque article a-t-il un auteur identifié avec une page biographique ? La page biographique liste-t-elle des qualifications vérifiables ? Les sources citées dans les articles sont-elles accessibles et a jour ? Le site a-t-il des mentions legales complétés, une page contact réelle, une politique éditoriale ? Existe-t-il une page presse ou des mentions externes vérifiables ? Les pages les plus importantes ont-elles été revisees ou mises a jour dans les douze derniers mois ? Si plus de la moitie de ces vérifications echouent, le travail E-E-A-T passé avant le travail GEO. Il ne sert a rien d'[ajouter un fichier llms.txt](/fondations/lecon-05-llms-txt-utile-ou-pas) sur un site dont l'éditeur n'est pas identifiable. Le moteur ne citera pas, et il aura raison. ## Avant de passer a la suite Choisissez l'article le plus important de votre site. Verifiez qui en est l'auteur, quand il a été mis a jour, quelles sources il cité et quelle page biographique il pointe. Si une seule de ces vérifications est faible, vous tenez votre première amélioration utile pour gagner en [visibilité mesurable dans les réponses génératives](/fondations/lecon-07-mesurer-presence-ia). ### FAQ **Que signifie E-E-A-T exactement ?** Quatre piliers: Experience (vecu personnel sur le sujet), Expertise (competence technique), Authoritativeness (autorite reconnue par les pairs) et Trustworthiness (fiabilite generale du site et du contenu). **Pourquoi le E-E-A-T pese-t-il plus en GEO qu'en SEO ?** Le SEO renvoie une liste, donc plusieurs sources cohabitent. Le GEO selectionne 3 a 10 sources pour la generation. Le filtre est plus exigeant, et les signaux de confiance permettent au moteur de trancher entre des candidats de qualite proche. **Quels signaux concrets renforcent le E-E-A-T ?** Bio auteur detaillee avec qualifications, balisage Person/Organization, mentions tierces dans des sources fiables, sources citees dans le contenu, presence d'experience vecue (cas client, exemples chiffres), continuite editoriale du site. **Le E-E-A-T peut-il se construire en quelques mois ?** L'Experience et l'Expertise oui (publier sous nom, montrer le vecu). L'Authoritativeness et la Trustworthiness prennent plus de temps car elles dependent de signaux externes (mentions, liens, presse). Compter 6 a 18 mois pour une amelioration mesurable. **Faut-il une page Author pour chaque redacteur ?** Oui, c'est une pratique recommandee. Une page Author avec bio, photo, liens vers profils externes (LinkedIn, Wikipedia si applicable), publications passees, certifications. Le balisage Person Schema.org renforce le signal. **Le E-E-A-T s'applique-t-il aux marques ou aux auteurs ?** Les deux. La marque (site, organisation) doit avoir son E-E-A-T (page About, mentions presse, page Person pour les dirigeants). L'auteur doit avoir le sien (bio, qualifications). Les deux niveaux se renforcent. ### Sources - [Search Quality Evaluator Guidelines](https://services.google.com/fh/files/misc/hsw-sqrg.pdf) — Google, édition 2025 - [E-E-A-T in the AI search era](https://aleydasolis.com/en/search-marketing/eeat-ai-overviews) — Aleyda Solis, 2025 - [Why entity-based authority wins in GEO](https://www.olafkopp.com/entity-eeat-llm) — Olaf Kopp, 2024 - [GEO and the trust signals that matter](https://ipullrank.com/eeat-générative-search) — Mike King, iPullRank, 2025 --- ## Premières métriques pour mesurer sa présence dans les moteurs génératifs - URL : https://geo-academy.fr/fondations/lecon-07-mesurer-presence-ia - Description : Trois indicateurs de base a connaître quand on débute en GEO, le Share of Answer, le Citation Share et la Brand Mention Frequency, avec leur calcul et leurs limites. - Auteur : theo-roux - Publie le : 2026-01-12 - Tags : debutant, metriques, tracking, fondations **TL;DR.** Trois indicateurs de base permettent de poser une mesure utile des le premier mois en GEO: le Share of Answer (part des reponses ou la marque apparait), le Citation Share (part des citations explicites avec lien) et la Brand Mention Frequency (frequence des mentions de marque). Chacun a son calcul, son utilite et ses limites. Un tableau de bord initial peut se construire sans outil paye. Sans mesure, pas de pilotage. Mais en GEO, la mesure n'est pas la simple transposition du SEO classique. Une marque ne se classe plus, elle est citée ou non, mentionnée ou non, présente avec un lien ou non. Trois indicateurs de base permettent de poser une mesure utile des le premier mois. Le Share of Answer, le Citation Share et la Brand Mention Frequency. Cette leçon les définit, les calcule et indique leurs limites. ## Le panier de prompts comme matière première Avant de parler des indicateurs, un mot sur ce qui les fait vivre. Toutes les métriques GEO se calculent sur un panier de prompts. Ce panier est une liste de questions representatives de ce que vos prospects, clients ou utilisateurs posent réellement aux moteurs génératifs. Sans panier, les indicateurs ne veulent rien dire. Un Share of Answer de soixante-dix pour cent sur un mauvais panier vaut moins qu'un Share of Answer de vingt pour cent sur un bon panier. Un panier de démarrage utile contient entre cinquante et deux cents prompts. La [leçon sur le prompt set de base](/fondations/lecon-08-prompt-set-de-base) est entierement consacree a sa construction, complétée par le [framework PromptStack 4-Layers](/methodologie/promptstack-4-layers). Pour cette leçon, nous supposons que le panier existe. ## Le Share of Answer Le Share of Answer mesure la fréquence a laquelle votre marque apparaît dans la réponse synthétisée, peu importe la forme. Cette mesure est très simple. On compte le nombre de prompts du panier ou la marque est mentionnée dans la réponse, on divise par le nombre total de prompts. Si le panier compte cent prompts et que la marque apparaît dans dix-huit réponses, le Share of Answer est de dix-huit pour cent. Cette métrique répond a une question pratique. Sur les questions qui comptent pour mon activité, est-ce que je suis présent dans le texte que voient mes prospects ? Le Share of Answer a une limite importante. Il ne distingue pas les mentions positives, neutres ou negatives. Une marque citée comme contre-exemple compte autant qu'une marque citée comme référence. Pour aller plus loin, on ajoute une analyse manuelle ou semi-automatique du sentiment. C'est lourd a faire de manière fiable, beaucoup d'équipes commencent par un echantillon mensuel pour calibrer. ## Le Citation Share Le Citation Share mesure la fréquence a laquelle votre site est cité comme source dans la réponse, avec un lien ou une vignette cliquable. C'est la métrique la plus proche du clic. Elle se calcule en divisant le nombre de prompts ou votre URL apparaît en source par le nombre total de prompts. Si le panier compte cent prompts et que votre URL apparaît en source dans douze réponses, le Citation Share est de douze pour cent. Cette métrique répond a une question commerciale. Sur les questions qui comptent, est-ce que mon site reçoit un lien sortant depuis le moteur génératif ? Le Citation Share est plus exigeant que le Share of Answer parce qu'il demande non seulement que la marque soit mentionnée mais que la source citée soit votre site. Une marque populaire peut avoir un Share of Answer élevé sans Citation Share, parce que les moteurs la mentionnent mais citent comme source un comparatif tiers. ## La Brand Mention Frequency La Brand Mention Frequency, parfois écrite BMF, mesure la fréquence a laquelle votre marque est mentionnée dans une réponse générative quand la recherche web n'est pas activee. Elle testé la couche d'ingestion d'entraînement, dont nous avons parle dans la [leçon sur citation vs ingestion](/fondations/lecon-03-citation-vs-ingestion). Le calcul est identique aux précédents mais le mode est différent. On pose les prompts du panier au modèle en mode chat sans recherche, et on compte les mentions. Cette métrique est plus difficile a obtenir parce qu'elle supposé un acces aux API des modèles avec recherche desactivee, ce qui n'est pas toujours possible côté produit grand public. Mais elle est precieuse, parce qu'elle révèle si la marque est ancree dans les modèles ou seulement dans le web public courant. Une marque avec un fort Citation Share et une BMF faible est une marque dont la présence est volatile. Une marque avec une BMF forte est une marque installee. ## Tableau comparatif des trois indicateurs | Métrique | Ce qu'elle mesure | Limite principale | Outils 2026 | |----------|-------------------|--------------------|-------------| | Share of Answer | Mentions dans la réponse, peu importe la forme | Ne distingue pas le sentiment | [Otterly](/outils/otterly-ai), [Peec](/outils/peec-ai), scripts API | | Citation Share | URL citée comme source avec lien | Sensible aux variations de SERP | [Profound](/outils/profound), BrightEdge, modules SEO | | Brand Mention Frequency | Mentions sans recherche, en couche modèle | Acces API requis, instable selon le mode | Scripts API maison, [Ahrefs Brand Radar](/outils/ahrefs-brand-radar) | Ce tableau montré que les trois métriques se completent. Aucune n'est suffisante seule. Une marque qui ne suit que le Share of Answer manque les variations entré mentions présentes et mentions liees. Une marque qui ne suit que le Citation Share manque les mentions sans citation, qui peuvent peser sur la perception. Une marque qui ne suit que la BMF mesure son capital de marque mais pas sa performance courante. ## Les biais a connaître Les trois métriques ont des biais qu'il faut comprendre pour ne pas raconter d'histoires. Le premier biais est celui de la variabilite. Les moteurs génératifs ne donnent pas exactement la même réponse a la même question, même dans la même journee. Une mesure ponctuelle est bruyante. La règle est de mesurer sur plusieurs jours et de moyenner, idéalement sur une fenêtre glissante de quatorze jours. Le deuxième biais est celui de la personnalisation. Selon le compte connecte, la region IP et l'historique, les réponses peuvent differer. Pour une mesure comparable, on utilisé des sessions propres, sans historique, ou des comptes neutres. Si l'outil utilisé des comptes residentiels, il doit le documenter. Le troisième biais est celui de la formulation des prompts. Un prompt formule en je ne donne pas la même réponse qu'un prompt formule en il ou en quels sont. Le panier doit refleter la diversité des formulations réelles, pas une seule forme privilegiee. > Une mesure ponctuelle vaut une intuition. Une mesure repetee vaut une donnee. ## Construire un premier tableau de bord Pour démarrer sans outil payé, on peut produire un premier tableau de bord en trois étapes. Définir un panier de cinquante prompts. Lancer chaque prompt sur Perplexity et ChatGPT Search une fois par semaine, en mode propre. Noter dans une feuille la présence de la marque dans la réponse, la présence du site comme source, et la présence éventuelle dans une réponse sans recherche. Sur quatre semaines, on obtient déjà une série utile. Un Share of Answer hebdomadaire pour chaque moteur, un Citation Share enrichi par notre [méthodologie Citation Quality Score](/methodologie/citation-quality-score), et une mesure approximative de BMF. Le travail prend entre deux et quatre heures par semaine pour cinquante prompts, ce qui est tenable dans une équipe d'une seule personne. Au-dela de cent prompts ou de quatre moteurs, le travail manuel devient intenable. C'est le seuil ou les outils du marché se justifient. Profound, Otterly, Peec ou les modules dédiés des plateformes SEO établies prennent le relais. Le choix de l'outil dépend du budget, du nombre de moteurs a couvrir et de la manière dont les données doivent être exposees aux équipes. ## La fréquence de mesure Mesurer trop souvent fait du bruit. Mesurer trop rarement empeche de détecter les changements. La pratique raisonnable en 2026 est une mesure hebdomadaire pour un panier moyen, avec une comparaison glissante sur quatre semaines pour lisser les variations, dans la lignée du [monitoring en continu](/tactiques/tactique-10-monitoring-en-continu). Les rapports mensuels servent a expliquer aux parties prenantes, les rapports hebdomadaires servent a piloter. ## Avant de passer a la suite Tirez de votre activité cinq prompts qui comptent vraiment. Posez-les a Perplexity. Notez si votre marque apparaît, et si votre site est cité comme source. Repetez l'exercice trois jours plus tard. La différence entre les deux mesures est votre première donnée de variabilite, et elle est plus parlante que beaucoup de rapports payants. ### FAQ **Quelle est la difference entre Share of Answer et Citation Share ?** Le Share of Answer compte la presence de la marque dans le texte de la reponse. Le Citation Share compte uniquement les citations explicites (avec lien sortant ou reference visible). Une marque peut etre mentionnee sans etre citee. **Comment calculer le Share of Answer concretement ?** Sur un panier de N prompts joues sur un moteur, on compte le nombre de reponses ou la marque apparait (sous forme de mention ou citation), on divise par N et on multiplie par 100. Exemple: 18 reponses sur 100 prompts = 18 pour cent de Share of Answer. **Quelle est la difference entre Citation Share et Brand Mention Frequency ?** Le Citation Share est un ratio (part des citations sur l'ensemble). La Brand Mention Frequency est un compteur absolu (nombre total de mentions). Les deux sont utiles, le ratio pour la part de voix, le compteur pour le volume. **Faut-il un outil paye pour calculer ces metriques ?** Non, pas pour debuter. Un panier de 50 a 200 prompts, joue manuellement ou via API, releve dans un tableur, suffit pour les premiers mois. Les outils payes (Profound, Peec.ai, Otterly) automatisent et passent a l'echelle. **Quelle est la principale limite de ces metriques ?** Elles ne mesurent que la presence, pas la qualite ou l'effet commercial. Une marque peut avoir un fort Share of Answer mais des mentions noyees en bas de reponse, sans lien, dominees par les concurrents. C'est ce que le Citation Quality Score corrige. **A quelle frequence faut-il mesurer ?** Hebdomadaire pour debuter, mensuelle pour la maintenance. La frequence depend du dynamisme du marche. Sur un secteur stable, mensuel suffit. Sur un secteur tres dynamique, le hebdomadaire capte les variations. ### Sources - [Brand visibility metrics in AI search](https://www.profound.so/research/share-of-answer) — Profound, 2025 - [Mesurer la visibilité dans ChatGPT et Perplexity](https://www.vincentterrasi.com/measure-llm-visibility) — Vincent Terrasi, 2025 - [GEO measurement framework](https://ipullrank.com/geo-measurement) — Mike King, iPullRank, 2025 - [Yext Search Trends Report 2025](https://www.yext.com/resources/search-trends-report-2025) — Yext, 2025 --- ## Construire un prompt set de base pour mesurer sa visibilité - URL : https://geo-academy.fr/fondations/lecon-08-prompt-set-de-base - Description : Méthode pas a pas pour assembler un panier de cinquante a deux cents prompts representatifs de votre marché, avec les catégories a couvrir et les pièges a éviter. - Auteur : theo-roux - Publie le : 2026-01-28 - Tags : debutant, prompt-set, methodologie, fondations **TL;DR.** Le panier de prompts est l'outil le plus important d'un projet GEO. C'est lui qui definit ce que mesurer et determine si la mesure a du sens. Aucun outil ne le construit correctement automatiquement, parce que la pertinence depend du marche, de la cible et de l'offre. Cinq categories doivent etre couvertes (decouverte, comparaison, transactionnel, problemes, secteur), pour un panier de 50 a 200 prompts assemble en quelques heures. Le panier de prompts est l'outil le plus important d'un projet GEO. C'est lui qui définit ce que mesurer. C'est lui qui détermine si la mesure a du sens ou non. Trop d'organisations achètent un outil de tracking en esperant que l'outil suggere les bonnes questions. Aucun outil ne le fait correctement, parce que la pertinence d'un prompt dépend de votre marché, de votre cible et de votre offre. Cette leçon explique comment assembler un panier de démarrage en quelques heures, sans outil spécialisé, en s'appuyant sur le [framework PromptStack 4-Layers](/methodologie/promptstack-4-layers). ## Pourquoi un panier et pas une liste de mots-clés Un panier de prompts n'est pas une liste de mots-clés. Un mot-clé est une expression que les gens tapent dans un moteur classique, souvent courte et fragmentaire. Un prompt est une question complète, formulee comme dans une conversation. Ce changement de format n'est pas anodin. Sur Google classique, un utilisateur tape kine paris. Sur ChatGPT, le même utilisateur tape comment trouver un kine spécialisé dans le mal de dos a Paris. La première expression appartient au SEO. La seconde appartient au [GEO, défini dans la leçon inaugurale](/fondations/lecon-01-quest-ce-que-le-geo). Construire un panier consiste a identifier les questions réelles que vos prospects posent a un assistant génératif. Ces questions sont plus longues, plus contextualisees et souvent plus diverses qu'une simple liste de mots-clés. Elles obligent a penser scénarios, pas volumes. ## Les cinq catégories a couvrir Un panier équilibre couvre cinq familles de prompts. Si l'une manque, la mesure est partielle. Si l'une domine trop, la mesure est biaisee. | Catégorie | Exemple | Ce qu'elle révèle | |-----------|---------|--------------------| | Notoriete generique | Quels sont les meilleurs CRM pour PME ? | Si la marque est citée dans la réponse générale | | Comparaison directe | Salesforce ou HubSpot, lequel choisir ? | Si la marque est mentionnée dans les comparatifs | | Problème oriente solution | Comment automatiser un suivi commercial ? | Si la marque est associee a la solution | | Marque explicite | Que pensez-vous de Pipedrive ? | Si le moteur produit une description coherente | | Question latente | Quels logiciels sont conseilles pour la prospection ? | Si la marque sort sur des contextes voisins | Cette typologie n'est pas exhaustive mais elle couvre la majorité des cas. Une marque B to B saine doit apparaître dans au moins trois des cinq catégories, mesurées via les [premières métriques de présence IA](/fondations/lecon-07-mesurer-presence-ia). Si elle n'apparaît que sur les questions explicites, c'est qu'elle n'est connue que de ceux qui la cherchent déjà. Si elle n'apparaît que sur les questions latentes, c'est qu'elle est associee au sujet sans être identifiée comme acteur principal. ## La méthode en quatre étapes Pour construire un panier de cinquante a deux cents prompts en quelques heures, on procédé en quatre étapes simples. La première étape consiste a lister les sujets sur lesquels la marque veut être présente. Ces sujets ne sont pas des produits, ce sont des situations clients. Pour un éditeur de logiciel comptable, le sujet n'est pas la facturation électronique. Le sujet est comment une PME peut se mettre en conformite avec la facturation électronique. La distinction est cruciale. Trop de paniers sont construits autour de noms de produits, ce qui produit des mesures qui ne refletent pas la manière dont les utilisateurs posent leurs questions. La deuxième étape consiste a transformer chaque sujet en quatre ou cinq questions, en variant la formulation. Pour le sujet ci-dessus, on pourrait avoir comment se mettre en conformite avec la facturation électronique en France, quel logiciel choisir pour la facturation électronique des artisans, faut-il vraiment changer de logiciel comptable pour la facturation électronique, ai-je le droit de continuer avec mes factures Excel, quels sont les acteurs français de la facturation électronique. Ces variations couvrent des intentions distinctes même si elles tournent autour du même sujet. La troisième étape consiste a vérifier que chaque catégorie de la typologie est représentée. Si on a quarante prompts mais aucun de la catégorie marque explicite, on en ajoute. Si la catégorie comparaison directe est sous-représentée, on en ajoute aussi. La quatrième étape consiste a documenter le panier. Chaque prompt reçoit une catégorie, un sujet, une audience cible et une priorité. Cette documentation prend du temps mais elle rend le panier maintenable. Sans elle, six mois plus tard, on ne sait plus pourquoi tel prompt est dans la liste. ## Les pièges classiques de formulation Plusieurs erreurs reviennent souvent. Le premier piège est la formulation trop favorable. Si on écrit comment Pipedrive aide a automatiser la prospection, on a déjà oriente la réponse. La marque sera citée parce qu'on l'a nommée dans la question, pas parce que le moteur la juge pertinente. Un prompt utile pour la mesure ne doit pas nommer la marque qu'on cherche a évaluer, sauf dans la catégorie marque explicite ou c'est l'objet même. Le deuxième piège est la formulation trop restrictive. Si on pose une question très précise comme quelles sont les fonctionnalites de Pipedrive en version professionnelle au prix de quarante-neuf euros, le moteur va probablement renvoyer une réponse generique parce que la specificite empeche la generalisation. Les meilleurs prompts sont ceux qu'un humain pourrait poser sans connaître toutes les options. Le troisième piège est la concentration thématique. Si tous les prompts tournent autour de la même angle de marché, on mesure une part étroite de la présence de la marque. Un panier qui couvre uniquement la prospection oublie peut-être le marketing automation, le service client, le CRM mobile, et passé a côté de la moitie de la conversation. Le quatrième piège est l'absence de variantes locales. Une marque présente en France et en Belgique doit vérifier que ses prompts contiennent des variantes regionales, suivant la logique de notre [baromètre GEO Pulse FR](/methodologie/geo-pulse-fr). Un prompt sur quel logiciel comptable choisir en France ne donne pas la même réponse que sur quel logiciel comptable choisir en Belgique. Si la marque vise les deux marchés, les deux variantes doivent figurer. ## La taille recommandee Un panier de cinquante prompts est suffisant pour démarrer une mesure utile. Au-dela, le travail manuel devient lourd. Cent prompts permettent une couverture solide d'une marque avec deux ou trois lignes de produits. Deux cents prompts couvrent une marque diversifiee ou un acteur multi-marché. Au-dela de deux cents, on entré dans le domaine ou les outils professionnels deviennent nécessaires. Une règle pratique consiste a mesurer le temps que prend une passé complète sur le panier. Si une passé sur cinquante prompts prend deux heures, une passé sur deux cents prendra huit heures, ce qui devient incompatible avec une fréquence hebdomadaire faite a la main, d'où l'intérêt du [monitoring en continu](/tactiques/tactique-10-monitoring-en-continu). > Un petit panier bien construit vaut mieux qu'un grand panier construit a la hate. ## La maintenance dans le temps Un panier n'est pas fige. Le marché évolue, les produits aussi, le langage des utilisateurs change. Une revision trimestrielle est saine. Elle consiste a identifier les prompts qui ne donnent plus de signaux exploitables, a remplacer ceux dont la formulation a vieilli, et a ajouter ceux qui correspondent a des évolutions de l'offre ou de la cible. La règle est de ne jamais supprimer un prompt sans avoir une raison documentee. Si un prompt ne renvoie plus de mentions, ce n'est pas forcement parce qu'il est mauvais. C'est peut-être parce que la marque a perdu en visibilité sur ce sujet. Le supprimer reviendrait a effacer un signal utile. ## Les sources pour alimenter le panier Plusieurs sources alimentent un panier de qualité. Les questions réelles posees au support client. Les questions des prospects en rendez-vous commercial, capturees par les commerciaux. Les recherches dans le moteur interne du site. Les threads Reddit et forums sectoriels ou la marque ou ses concurrents sont mentionnés. Les sections People Also Ask de Google sur les requêtes du marché. Les mots-clés long traine déjà identifiés par votre outil SEO, transformés en questions complétés. Une bonne pratique consiste a tenir un fichier des questions entendues, alimente en continu par les équipes en contact avec les clients. Ce fichier est une mine pour la maintenance trimestrielle du panier. ## Avant de passer a la suite Listez quinze sujets sur lesquels votre marque doit exister dans les moteurs génératifs. Pour chacun, ecrivez une question telle que la poserait un prospect. Vous avez votre premier brouillon de panier. La [leçon suivante explique les erreurs débutant typiques](/fondations/lecon-09-erreurs-debutant), et celle d'après une [feuille de route 90 jours](/fondations/lecon-10-feuille-de-route-90-jours) pour passer de ce panier a une mesure opérationnelle. ### FAQ **Combien de prompts faut-il pour debuter ?** 50 prompts est un seuil minimum pour une mesure stable, 100 a 200 est une cible plus confortable. En dessous de 50, l'ecart-type de la mesure est trop large. Au-dessus de 200, le cout d'annotation explose sans gain proportionnel. **Quelles sont les cinq categories de prompts a couvrir ?** 1) Decouverte (qu'est-ce que X), 2) Comparaison (X vs Y), 3) Transactionnel (comment souscrire X), 4) Problemes (probleme avec X), 5) Secteur (questions adjacentes du marche). Equilibre les cinq categories pour eviter les biais. **Faut-il utiliser un outil pour generer le panier ?** Pas en priorite. Aucun outil ne suggere correctement les prompts car la pertinence depend du marche specifique. Les outils peuvent suggerer des variantes une fois le panier initial construit a la main. **Comment eviter les biais de selection ?** Inclure des prompts qui ne mentionnent pas votre marque (le moteur doit la trouver tout seul), couvrir les concurrents directs explicitement, varier les formulations (question, requete commerciale, demande d'aide), tester avec des collegues qui ne connaissent pas votre marche. **Faut-il versionner le panier ?** Oui, c'est essentiel pour la maintenance. Geler le panier pendant un trimestre permet de comparer les mesures dans le temps. Reouvrir en debut de trimestre pour mise a jour, en gardant trace des modifications. **Combien de temps pour assembler un panier initial ?** Quelques heures pour une equipe qui connait son marche. Une demi-journee pour un panier de 100 prompts ventiles dans les cinq categories, avec documentation minimale (intention, source de l'idee, langue, moteur cible). ### Sources - [Prompt sets for brand visibility tracking](https://www.profound.so/research/prompt-sets) — Profound, 2025 - [Comment construire un panier de questions GEO](https://www.vincentterrasi.com/prompt-set-construction) — Vincent Terrasi, 2025 - [GEO measurement framework](https://ipullrank.com/geo-measurement) — Mike King, iPullRank, 2025 --- ## Les sept erreurs typiques quand on débute en GEO - URL : https://geo-academy.fr/fondations/lecon-09-erreurs-debutant - Description : Tour d'horizon des sept fautes les plus fréquentes des équipes qui se lancent dans le Generative Engine Optimization, avec pour chacune le symptome, la cause et la manière de la corriger. - Auteur : theo-roux - Publie le : 2026-02-18 - Tags : debutant, erreurs, bonnes-pratiques, fondations **TL;DR.** Les sept erreurs les plus frequentes des equipes qui se lancent en GEO: acheter l'outil avant le panier, vouloir tout couvrir des le premier mois, confondre presence et qualite, croire au llms.txt comme baguette magique, abandonner le SEO classique, mesurer sans corriger et sous-estimer le E-E-A-T. Pour chacune, un symptome reconnaissable, une cause identifiable et une correction operationnelle a appliquer immediatement. Les premiers six mois d'un projet GEO sont riches en occasions de se tromper. Le sujet est jeune, les bonnes pratiques se stabilisent a peine, et les fournisseurs vendent volontiers leurs solutions avant que les questions de fond aient été posees. Cette leçon recense sept erreurs revenues de manière repetee dans les programmes que j'ai eu l'occasion d'observer en 2025 et 2026, avec pour chacune le symptome, la cause et la correction. L'objectif n'est pas de noircir le tableau mais de gagner du temps. ## Erreur numéro un, acheter l'outil avant d'avoir le panier Le symptome est un dashboard installe en deux semaines avec des métriques qui ne disent rien d'actionnable. Les équipes regardent le rapport hebdomadaire et ne savent pas quoi en faire. La cause est l'inversion de l'ordre logique. L'outil mesure ce qu'on lui donné. Sans [panier de prompts construit avec soin](/fondations/lecon-08-prompt-set-de-base), il mesure des questions qu'on n'aurait pas posees, ou il propose un panier generique qui ne reflete pas votre marché. La correction consiste a inverser l'ordre. Construire d'abord un panier minimum a la main, faire tourner les mesures sur quatre semaines, comprendre quelles questions importent vraiment, puis seulement choisir l'outil qui correspond aux moteurs et aux usages cibles. Cet ordre fait gagner trois a six mois de tatonnements. ## Erreur numéro deux, confondre Citation Share et Share of Answer Le symptome est un graphique qui monte fortement mais qui ne se traduit pas en trafic. La marque est de plus en plus mentionnée dans les réponses, mais le site ne reçoit pas de clic supplémentaire. La cause est l'utilisation d'une seule métrique, généralement le Share of Answer, comme indicateur unique de succès. Or le Share of Answer mesure la présence de la marque dans la réponse, pas la présence du site comme source liee. La correction consiste a tracker les deux métriques en parallèle, comme indique dans la [leçon sur les premières métriques](/fondations/lecon-07-mesurer-presence-ia), et a comprendre que l'une nourrit la perception de marque tandis que l'autre nourrit le trafic. Les deux comptent, mais leur arbitrage dépend de votre objectif. ## Erreur numéro trois, optimiser pour un seul moteur Le symptome est une focalisation excessive sur Google AI Overviews ou sur ChatGPT, avec des décisions éditoriales prises uniquement en fonction d'un seul moteur. Au bout de quelques mois, la marque progresse sur la cible mais regresse ou stagne sur les autres. La cause est l'idée que les moteurs génératifs fonctionnent tous pareil, ce qui est faux. Chaque moteur a ses préférences, son corpus, son traitement des sources, comme le détaille la [cartographie des moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs). La correction consiste a tracker au moins deux moteurs des le départ, et a vérifier que les décisions éditoriales ne sabotent pas la présence sur les autres surfaces. Si une optimisation favorise lourdement un moteur au detriment des autres, elle doit être justifiée par un choix stratégique explicite, pas par une habitude. ## Erreur numéro quatre, oublier la couche d'ingestion Le symptome est un travail intense sur la couche RAG, avec des contenus optimises pour la récupération, mais aucune action sur la présence en volume sur le web public. Au bout de douze a dix-huit mois, la marque se demande pourquoi elle n'apparaît pas quand un utilisateur interroge un modèle en mode chat sans recherche. La cause est la confusion entre les deux jeux, traitée dans la [leçon citation vs ingestion](/fondations/lecon-03-citation-vs-ingestion). Optimiser la couche RAG ne suffit pas. Il faut aussi nourrir la couche d'ingestion, c'est-a-dire la présence sur les sources que les éditeurs collectent pour former les modèles. La correction consiste a inscrire dans la feuille de route une part de travail sur la présence externe, ce qui inclut Wikipedia, les annuaires sectoriels, la presse spécialisée, les [fiches Wikidata pour entités](/tactiques/tactique-13-entites-wikidata) et les bases de données professionnelles. Ce travail est lent mais structurant. ## Erreur numéro cinq, écrire pour le moteur sans qu'on sache ce qu'il aime Le symptome est une production de contenus très optimises selon des règles entendues lors d'une conference, sans vérification. La marque ajoute des FAQ, des bullet points, du [markup schema.org pour LLM](/tactiques/tactique-07-schema-org-llm), des citations massives, sans mesurer si cela aide. La cause est la confiance excessive dans les recommandations entendues. La réalité est que les règles bougent et que toutes les recommandations ne sont pas verifiees. La correction consiste a tester. Sur un echantillon de pages, on applique une recommandation, et on observe sur deux mois si la présence dans les réponses génératives évolue. Si oui, on généralisé. Sinon, on revient sur le sujet sans mauvaise conscience. Cette discipline empirique distingue les programmes sérieux des autres. ## Tableau recapitulatif des sept erreurs | Numéro | Erreur | Symptome | Correction | |--------|--------|----------|-------------| | 1 | Outil avant panier | Dashboard sans actions | Construire le panier d'abord | | 2 | Une seule métrique | Croissance sans trafic | Suivre Share of Answer et Citation Share | | 3 | Un seul moteur | Progrès unilateral | Tracker au moins deux moteurs | | 4 | Oublier l'ingestion | Marque invisible sans recherche | Travailler la présence externe | | 5 | Optimisations non testées | Effort sans effet mesure | Tester par echantillon | | 6 | Confier au seul SEO | Manque de transversal | Impliquer marque, presse, produit | | 7 | Promettre trop tôt | Dechantement a six mois | Communiquer un calendrier honnête | ## Erreur numéro six, confier le projet a la seule équipe SEO Le symptome est un programme GEO qui produit du contenu et des optimisations mais qui n'arrive pas a faire bouger les signaux d'autorité ou de marque. L'équipe SEO fait son métier, mais elle n'a pas les leviers pour agir sur la présence presse, sur Wikipedia, sur les annuaires ou sur la communication corporate. La cause est organisationnelle. Le GEO touche au contenu, au technique, au branding, aux relations presse, parfois au juridique. Le confier a une seule fonction limite mecaniquement les leviers actionnables. La correction consiste a constituer une équipe légère mais transversale, qui rassemble une personne SEO, une personne contenu, une personne marque ou presse, et un sponsor capable d'arbitrer. La fréquence idéale est une réunion mensuelle de pilotage, avec des décisions explicites sur les chantiers en cours. Sans cette transversalite, le programme resté prisonnier d'une fonction et ne mobilise jamais les leviers d'autorité externes. ## Erreur numéro sept, promettre des résultats trop rapides Le symptome est une présentation au comite de direction au bout de six mois ou la pression sur les résultats devient ingérable, alors que la mesure ne montre pas encore de gains stables. La cause est une promesse initiale calee sur les attentes du SEO classique, ou les premiers gains arrivent en quelques mois. Le GEO a une dynamique plus lente parce qu'il combine des effets de courte duree, sur la couche RAG, et des effets de longue duree, sur la couche d'ingestion. Promettre une croissance forte au bout de trois mois est imprudent. La correction consiste a communiquer un calendrier réaliste des le départ. Trois mois pour la mesure et le diagnostic, six mois pour les premiers gains visibles sur la couche RAG, douze a dix-huit mois pour des gains structurels sur la couche d'ingestion. Cette honnêteté préserve la crédibilité du programme et le protégé des arbitrages budgetaires precipites. > Un programme GEO juge sur trois mois est juge sur la mesure, pas sur les gains. ## Le fil rouge des sept erreurs Si on regarde les sept erreurs ensemble, un fil rouge apparaît. Toutes consistent a copier sans adapter une habitude venue d'ailleurs. Habitude SEO, habitude marketing produit, habitude outil avant méthode, habitude de promesse rapide. Le GEO impose de suspendre ces habitudes le temps de comprendre ses propres règles. Une fois ces règles posees, le retour aux automatismes est possible, mais sur des bases solides. ## Avant de passer a la suite Reprenez les sept erreurs et notez celles que vous reconnaissez dans votre situation actuelle. Une seule erreur identifiée et corrigee a temps fait gagner plusieurs mois de tatonnements. La [dernière leçon propose une feuille de route 90 jours](/fondations/lecon-10-feuille-de-route-90-jours) pour passer de zéro a une mesure opérationnelle, en evitant ces sept ecueils. ### FAQ **Quelle est l'erreur la plus frequente en debut de projet GEO ?** Acheter l'outil de monitoring avant d'avoir construit le panier de prompts. L'outil ne peut pas mesurer correctement sans un panier pertinent au metier. Le panier doit toujours preceder l'outil. **Faut-il vraiment se limiter a deux moteurs au demarrage ?** Pas necessairement deux, mais pas six non plus. La regle pratique est de couvrir 2 a 4 moteurs adaptes a l'audience. Tout couvrir des le debut dilue l'effort sans benefice mesurable proportionnel. **Pourquoi ne pas abandonner le SEO classique pour le GEO ?** Parce que les moteurs generatifs s'appuient encore largement sur les SERP pour recuperer les sources. Une page mal positionnee en SEO classique a peu de chances d'etre selectionnee dans le retrieval RAG. Les deux disciplines se completent. **Le llms.txt n'est-il pas vraiment efficace ?** Pas en 2026. Aucun moteur generatif majeur n'a confirme l'utiliser officiellement pour le grounding. C'est une proposition technique interessante mais pas un levier prioritaire pour debuter en GEO. **Comment eviter le piege du mesurer sans corriger ?** Adopter un rituel hebdomadaire ou mensuel qui force la conversion entre mesure et action: une mesure suivie d'un correctif documente, avec un suivi de l'effet sur la mesure suivante. Pas de rapport sans action associee. **Pourquoi le E-E-A-T est-il sous-estime par les debutants ?** Parce qu'il ne se mesure pas directement et prend du temps a se construire. Les debutants se focalisent sur des leviers techniques rapides (Schema, llms.txt) en oubliant que la confiance editoriale est le filtre principal de la selection RAG. ### Sources - [Common pitfalls in early GEO programs](https://ipullrank.com/geo-pitfalls) — Mike King, iPullRank, 2025 - [Pourquoi les projets GEO echouent](https://www.vincentterrasi.com/geo-fails) — Vincent Terrasi, 2025 - [GEO: Generative Engine Optimization](https://arxiv.org/abs/2311.09735) — Aggarwal et al., 2023 --- ## Une feuille de route de quatre-vingt-dix jours pour démarrer en GEO - URL : https://geo-academy.fr/fondations/lecon-10-feuille-de-route-90-jours - Description : Plan opérationnel sur trois mois pour passer de zéro a une mesure utile et a un premier cycle d'optimisation, semaine par semaine, avec les livrables et les indicateurs intermédiaires. - Auteur : theo-roux - Publie le : 2026-04-15 - Tags : debutant, feuille-de-route, operationnel, fondations **TL;DR.** Une feuille de route de 90 jours pour passer de zero a une premiere mesure GEO operationnelle et un premier cycle d'optimisation. Mois 1: cadrage, panier de prompts, premiere mesure manuelle. Mois 2: outillage et baseline. Mois 3: premier cycle de correctifs et mesure d'impact. Sans calendrier ecrit, un projet GEO derive vers ce qui est urgent ou facile. Avec un calendrier, l'equipe sait ce qu'elle doit livrer chaque semaine. Une feuille de route est une promesse de discipline. Sans calendrier écrit, un projet GEO derive vers ce qui est urgent ou ce qui est facile. Avec un calendrier écrit, l'équipe sait ce qu'elle doit livrer chaque semaine et a quoi mesurer son avancement. Cette dernière leçon propose un plan de quatre-vingt-dix jours pour passer de zéro a une première mesure opérationnelle, avec un premier cycle d'optimisation a la clé. Les durees sont indicatives. Une organisation grosse ou complexe pourra etirer le calendrier. Une organisation légère pourra le compresser. ## Le principe directeur Le plan repose sur un principe simple. Les trente premiers jours servent a comprendre, les trente suivants a mesurer, les trente derniers a tester. Cette progression évite l'erreur la plus courante, qui consiste a vouloir optimiser avant de mesurer, ou a mesurer avant de comprendre. Chaque mois a une dominante mais inclut des activités des deux autres mois. On peut commencer a mesurer pendant le mois de comprehension et continuer a mesurer pendant le mois de tests. Le calendrier indique ou se concentre l'effort, pas une exclusivité stricte. ## Mois un, comprendre le terrain La première semaine est consacree a la [cartographie des moteurs génératifs cibles](/fondations/lecon-02-cartographie-moteurs-generatifs). On dresse la liste des moteurs génératifs ou la marque doit être présente. On note la présence actuelle de la marque sur chacun en posant cinq questions tests. On identifié les concurrents directs et les sources qui dominent les réponses. Le livrable est un document de deux a trois pages qui résumé cette photo de départ. La deuxième semaine est consacree a la construction du panier de prompts. On utilisé la [méthode du prompt set de base](/fondations/lecon-08-prompt-set-de-base) pour produire un panier de cinquante a cent prompts, structure par catégorie, sujet, audience et priorité. Le livrable est ce panier sous forme de feuille de calcul partagee avec l'équipe. La troisième semaine est consacree a l'[audit E-E-A-T du site](/fondations/lecon-06-eeat-pour-geo). On vérifie les pages auteur, les mentions legales, les sources citées, la politique éditoriale, la fraicheur des contenus principaux. Le livrable est un document qui liste les chantiers a ouvrir avec une priorisation simple. La quatrième semaine est consacree au choix du périmètre de tracking et éventuellement au choix d'un outil parmi les [fiches outils Profound, Otterly, Peec](/outils/profound). Si le panier compte moins de cent prompts, le tracking manuel est tenable. Sinon, on évalue deux ou trois outils du marché. Le livrable est une décision documentee, avec un budget et un planning. A la fin du mois un, l'équipe sait sur quel terrain elle joue, avec quel panier et quel outil. ## Mois deux, mesurer Le mois deux est dédié a l'installation d'une mesure stable. La première semaine consiste a lancer la première passé complète de mesure sur le panier, en parallèle sur deux moteurs au minimum. On note pour chaque prompt la présence de la marque, la présence du site comme source, et la position relative dans la réponse. Le livrable est un premier rapport de baseline. La deuxième semaine consiste a répéter la mesure pour valider la variabilite. La même passé est faite trois jours plus tard. On compare les résultats pour comprendre l'amplitude des variations. Le livrable est une note sur la stabilité de la mesure. La troisième semaine consiste a construire le tableau de bord opérationnel. Trois indicateurs minimum, le Share of Answer, le [Citation Share enrichi du Citation Quality Score](/methodologie/citation-quality-score) et un suivi qualitatif des concurrents les plus cités. Le tableau de bord doit tenir en une seule vue, lisible en moins de cinq minutes. Le livrable est ce tableau de bord, avec une fréquence de mise a jour decidee. La quatrième semaine consiste a partager les résultats avec les parties prenantes. On organisé une réunion d'une heure avec les sponsors et les fonctions concernées. On présente la baseline, les concurrents, les premiers signaux. On engage les décisions sur les chantiers d'optimisation. Le livrable est un compte-rendu avec les décisions prises et les responsabilités attribuees. A la fin du mois deux, l'équipe a une mesure stable, partagee, et comprise par les decideurs. ## Tableau recapitulatif du calendrier | Mois | Semaine | Activité principale | Livrable | |------|---------|---------------------|----------| | 1 | 1 | Cartographie et photo de départ | Document deux a trois pages | | 1 | 2 | Construction du panier de prompts | Panier documente, cinquante a cent prompts | | 1 | 3 | Audit E-E-A-T du site | Liste de chantiers prioritaires | | 1 | 4 | Choix du périmètre et de l'outil | Décision avec budget et planning | | 2 | 5 | Première passé de mesure complète | Rapport de baseline | | 2 | 6 | Mesure de la variabilite | Note sur la stabilité | | 2 | 7 | Tableau de bord opérationnel | Dashboard une vue | | 2 | 8 | Partage avec les parties prenantes | Compte-rendu et décisions | | 3 | 9 | Premier cycle d'optimisation éditoriale | Cinq pages refondues | | 3 | 10 | Test sur un chantier d'autorité externe | Une action presse ou wikipedia | | 3 | 11 | Mesure post-test | Comparaison avant et après | | 3 | 12 | Bilan et plan trimestre suivant | Document de stratégie sur six mois | ## Mois trois, tester Le mois trois passé en mode opérationnel. La première semaine du mois consiste a engager un premier cycle d'optimisation éditoriale via le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). Cinq pages choisies parmi celles qui apparaissent déjà dans les mesures sont refondues selon les principes vus dans les leçons précédentes. On ajoute des sources citées, des statistiques attribuees, une auto-suffisance des paragraphes, des définitions claires et une page auteur a jour. Le livrable est cinq pages refondues et publiées. La deuxième semaine consiste a tester un chantier d'autorité externe. Un communique de presse coordonne, une mise a jour de la fiche Wikipedia si elle existe et le cas est légitime, une inscription dans un annuaire sectoriel reconnu, une intervention dans un média métier. On choisit une seule action pour pouvoir en mesurer l'effet. Le livrable est cette action, avec sa date de publication. La troisième semaine consiste a relancer la mesure sur le panier complet pour comparer. On regarde si les pages refondues sont plus citées, si la marque gagne du Share of Answer, si la BMF a bouge. Une mesure faite quinze jours après une optimisation éditoriale est rarement suffisante pour conclure, mais elle permet d'identifier les premières tendances. Le livrable est une comparaison documentee. La quatrième semaine consiste a tirer le bilan des quatre-vingt-dix jours et a poser le plan du trimestre suivant. On valide ce qui a marché, on identifié les chantiers a poursuivre, on engage les arbitrages budgetaires. Le livrable est un document de stratégie sur six mois. A la fin du mois trois, l'équipe dispose d'une mesure stable, d'un premier retour d'expérience documente sur deux types d'actions, et d'un plan pour la suite. > Un projet GEO mature ne se construit pas en trois mois, mais une mesure utile et un premier cycle d'optimisation tiennent dans cet horizon. ## Les indicateurs intermédiaires a surveiller Pendant les quatre-vingt-dix jours, plusieurs signaux indiquent que le projet est sur les rails. La couverture du panier par les catégories cibles, qui doit être equilibree des la fin du mois un. La stabilité des mesures, qui doit être raisonnable des la fin du mois deux. Le nombre d'actions concrètes engagees, qui doit être supérieur a cinq des la fin du mois trois. Si l'un de ces signaux est faible a son jalon, c'est qu'un calage de fond est nécessaire avant de poursuivre. Inversement, certains signaux ne sont pas pertinents avant le sixième mois et ne doivent pas peser sur les arbitrages des trois premiers. Une croissance du Share of Answer de plus de dix points en trois mois est rare. Un Citation Share qui passé de zéro a vingt pour cent en quatre-vingt-dix jours est rare aussi. Promettre ces gains a un comite de direction exposé le programme a un dechantement injuste. ## Au-dela des quatre-vingt-dix jours Une fois ce socle pose, la suite consiste a entretenir trois habitudes. Une mesure régulier, au moins mensuelle, idéalement hebdomadaire. Un cycle d'optimisation éditoriale d'environ une douzaine de pages par trimestre. Un travail continu sur l'autorité externe, qui peut être porte par les équipes presse, marque ou produit selon l'organisation. La discipline compte plus que l'ambition. Mieux vaut une mesure hebdomadaire tenue pendant un an qu'un grand programme lance en fanfare et abandonne au bout de quatre mois. Le GEO récompense ceux qui mesurent, ajustent et recommencent. ## Pour cloturer ce cours Les dix leçons des Fondations couvrent l'essentiel pour démarrer. La définition du GEO, le paysage des moteurs, les deux mecaniques de citation, le pipeline RAG, le statut du llms.txt, le poids du E-E-A-T, les premières métriques, la construction d'un panier, les erreurs a éviter et cette feuille de route. La suite du programme passé par les rubriques Tactiques, Méthodologie et Études de cas, qui detaillent chacun de ces points avec des exemples chiffres. L'objectif de ce cours n'était pas de tout dire mais de poser des bases solides. Si a la fin de la lecture, vous avez un panier de prompts, une mesure de baseline et une page auteur a jour, vous etes déjà loin devant la majorité des projets GEO lances en 2026. ### FAQ **Que faire au cours du premier mois ?** Cadrer le perimetre (audience, marche, moteurs cibles), construire un panier initial de 100 prompts ventiles dans 5 categories, et faire une premiere mesure manuelle sur 2 a 3 moteurs. Pas d'achat d'outil ce mois-ci, l'outillage vient apres. **Quand acheter un outil de monitoring ?** Au cours du mois 2, une fois le panier valide et la premiere mesure faite. Acheter l'outil avant fait perdre du temps en configuration et empeche de developper le reflexe de mesure manuelle utile sur le long terme. **Combien de correctifs viser au mois 3 ?** Un cycle de 5 a 10 correctifs editoriaux concrets, suivis individuellement. Trop de correctifs simultanes empechent de mesurer l'impact de chacun. Mieux vaut peu de correctifs bien suivis que beaucoup de correctifs perdus dans le bruit. **Cette feuille de route est-elle adaptee a une grande entreprise ?** Le calendrier indicatif est pour une equipe legere. Une grosse organisation devra etirer (validations juridiques, processus achat outil, alignement multi-equipes). Compter 4 a 6 mois pour une mise en route comparable. **Que faire si le panier est mauvais apres le premier mois ?** Iterer. Le panier n'est jamais parfait du premier coup. Au cours du mois 2, ajuster les prompts qui n'apportent pas de signal utile, ajouter ceux qui manquent. Le panier est un livrable vivant, pas une livraison unique. **Quels indicateurs intermediaires suivre ?** Mois 1: panier livre, premiere mesure faite. Mois 2: baseline etablie sur 2 a 3 moteurs avec 100 prompts. Mois 3: 5 a 10 correctifs livres, mesure d'impact sur la baseline. Pas d'objectif de Share of Answer chiffre au mois 3, c'est trop tot. ### Sources - [GEO program kickoff playbook](https://ipullrank.com/geo-playbook) — Mike King, iPullRank, 2025 - [Lancer un programme GEO en trois mois](https://www.vincentterrasi.com/geo-90-day-plan) — Vincent Terrasi, 2025 - [Brand visibility metrics in AI search](https://www.profound.so/research/share-of-answer) — Profound, 2025 - [GEO: Generative Engine Optimization](https://arxiv.org/abs/2311.09735) — Aggarwal et al., 2023 --- # Tactiques avancees ## Mesurer la couverture fan-out d'une page: méthode et résultats sur dix sites français - URL : https://geo-academy.fr/tactiques/tactique-12-fan-out-coverage - Description : Méthodologie et premiers résultats d'une étude maison sur la couverture fan-out de dix sites français, conduite en avril 2026. - Auteur : camille-lefebvre - Publie le : 2026-04-22 - Tags : geo, fan-out, etude, couverture **TL;DR.** Etude maison sur dix sites francais analyses en avril 2026 via le simulateur Qforia de Mike King. La couverture fan-out moyenne mesuree est de 38 pour cent, avec une dispersion forte entre sites (de 12 a 67 pour cent). Une page qui ne traite qu'une partie des sous-requetes generees laisse l'autre partie a la concurrence. Les chiffres sont des estimations issues d'un panel test maison, a interpreter avec prudence. Cet article présente la deuxième étude maison de la rubrique tactiques avancees. [Camille Lefebvre](/auteurs/camille-lefebvre) a mesure la **couverture fan-out** de dix sites français en avril 2026 : pour chaque site, sur une requête cible donnée, quelle proportion des sous-requêtes générées par le [query fan-out de Google AI Mode](/tactiques/tactique-01-anatomie-query-fan-out) est effectivement traitée par le contenu du site ? Le dispositif s'inspire du simulateur Qforia de Mike King et resté rejouable. Les chiffres sont des estimations issues d'un panel test interne, pas une étude scientifique formelle. ## La notion de couverture fan-out Le query fan-out génère, pour une requête principale, un ensemble de sous-requêtes parallèles. Le nombre varie de cinq a trente selon la complexité. Une page web qui ne traite qu'une partie de ces sous-requêtes laissera l'autre partie a la concurrence. La métrique de couverture fan-out mesure quelle proportion des sous-requêtes générées est effectivement adressee par le contenu de la page. Mathematiquement : couverture = (nombre de sous-requêtes traitées) / (nombre total de sous-requêtes générées). Une couverture de 100 pour cent signifie que la page répond a chaque sous-question générée, indicateur formalisé dans notre [méthodologie Fan-Out Coverage Index](/methodologie/fan-out-coverage-index). Une couverture de 30 pour cent signifie que la page laisse passer les deux tiers des sous-questions. L'intérêt pratique : sur une requête dont le fan-out génère quinze sous-requêtes, une page qui en couvre douze a un avantage massif sur une page qui en couvre cinq. Les deux pages peuvent ranker sur la requête principale en SEO classique, mais leur visibilité differe énormément quand la requête est traitée en mode génératif. ## Le protocole de mesure Le protocole tient en cinq étapes. **Étape un.** Sélectionner une requête cible representative pour le site. Pour chaque site testé, nous avons choisi la requête qui drive le plus de trafic SEO, en consultant Search Console (acces partage par les sites partenaires). Cela permet une comparaison entré sites sur leur "requête reine". **Étape deux.** Générer le fan-out de cette requête via Qforia. L'outil donné une liste de sous-requêtes sans coverage parfait du fan-out réel de Google, mais une approximation acceptable et publiquement reproductible. **Étape trois.** Lister les sous-requêtes générées et les annoter par type (informationnelle, comparative, sous-aspect, réputation, après-vente, etc.). **Étape quatre.** Lire la page-cible du site (la page la mieux positionnée sur la requête principale) et évaluer pour chaque sous-requête si la page contient une réponse exploitable. L'évaluation est faite manuellement, par deux relecteurs, avec accord requis. **Étape cinq.** Calculer le ratio de couverture pour chaque site et comparer. Le panel : dix sites français, repartis sur cinq verticales (santé, finance, voyage, tech, e-commerce). Pour chaque site, une seule requête-cible analysee. Le fan-out génère a produit, en moyenne, dix-sept sous-requêtes par site (mediane 16, min 11, max 24). ## Les résultats Le tableau suivant résumé les couvertures mesurees, anonymisees par lettre. | Site | Verticale | Sous-requêtes | Couvertes | Couverture | |------|-----------|---------------|-----------|------------| | A | Santé | 19 | 14 | 74 pour cent | | B | Finance | 16 | 9 | 56 pour cent | | C | E-commerce | 22 | 11 | 50 pour cent | | D | Voyage | 14 | 6 | 43 pour cent | | E | Tech | 18 | 7 | 39 pour cent | | F | Santé | 17 | 6 | 35 pour cent | | G | E-commerce | 16 | 5 | 31 pour cent | | H | Voyage | 11 | 3 | 27 pour cent | | I | Tech | 24 | 5 | 21 pour cent | | J | Finance | 15 | 3 | 20 pour cent | La moyenne s'établit a 38 pour cent. La dispersion est forte : du simple a presque le quadruple entre le pire et le meilleur. La mediane (37 pour cent) est très proche de la moyenne, ce qui indique une distribution sans valeurs extrêmes deformantes. ## Lecture des résultats Trois observations meritent commentaire. **Première observation, l'écart entré A et J.** Le site A (santé) couvre 74 pour cent des sous-requêtes générées. Sa page-cible est un dossier de fond de plus de deux mille mots, structure en quinze sections H2/H3, qui aborde aussi bien les aspects techniques que les questions de cout, de remboursement, de délais et de risques. Le site J (finance), a l'oppose, a une page-cible courte (quatre cents mots) qui répond a la question principale mais ignore les sous-aspects. L'écart de couverture s'explique presque entierement par cette différence de profondeur éditoriale. Ce n'est pas une question de niche ni de domain rating. Le site A et le site F sont sur la même verticale (santé) avec des autorités comparables, et leur couverture differe du simple au double. C'est la conception éditoriale de la page-cible qui fait la différence. **Deuxième observation, les sous-requêtes systématiquement non couvertes.** En croisant les dix analyses, certaines catégories de sous-requêtes sont systématiquement ignorées par les sites du panel. Les sous-requêtes de **réputation** ("X est-il fiable", "avis sur X") sont rarement traitées explicitement par les pages-cibles, qui sont en général pour les marques elles-mêmes (les sites ne disent pas "Cabinex est fiable", ils le presupposent). Les sous-requêtes d'**après-vente** ("délai de remboursement", "garantie X", "annulation X") sont également souvent absentes des pages produit principales. Enfin, les sous-requêtes de **comparaison** ("X vs Y", "alternatives a X") sont le plus souvent absentes du contenu propre des marques (qui evitent de citer la concurrence). **Troisième observation, la verticale n'est pas determinante.** On aurait pu penser que certaines verticales (ex : santé) ont structurellement une meilleure couverture parce que les pages y sont plus longues. Les données ne le confirment pas : la verticale e-commerce a un site a 50 pour cent et un autre a 31 pour cent. La santé a 74 pour cent et 35 pour cent. La conception éditoriale individuelle prime sur la verticale. ## Les références méthodologiques Camille Lefebvre s'est appuye sur les travaux de Mike King (iPullRank) pour la conception du protocole. Mike King est l'auteur du simulateur Qforia, premier outil public pour observer le query fan-out de Google AI Mode. Sa conference SearchLove de 2024 a fourni le cadre conceptuel de la couverture fan-out, et son extension Chrome de 2025 a permis aux équipes françaises d'observer les requêtes XHR de AI Mode pour valider les approximations Qforia. L'étude reprend également la grille de classification des sous-requêtes que Mike King a esquissee dans plusieurs publications de blog en 2024 et 2025. La grille distingue six familles que nous avons reprises plus haut. ## Limites de l'étude L'étude a plusieurs limites importantes a nommér. D'abord, l'**echantillon est petit**. Dix sites ne suffisent pas a généraliser. Une replication a cinquante ou cent sites est nécessaire pour stabiliser les chiffres. Ensuite, l'**évaluation manuelle est subjective**. Déterminer si une page "couvre" une sous-requête demande un jugement humain qui peut varier d'un evaluateur a l'autre. Nous avons travaille a deux relecteurs avec accord requis, mais la mesure n'est pas parfaitement reproductible. Enfin, **Qforia est une approximation**. Le simulateur ne reproduit pas exactement le fan-out réel de Google AI Mode. Il s'en approche, mais les écarts sont possibles. Une étude plus rigoureuse demanderait l'acces aux requêtes XHR réelles via l'extension iPullRank, sur un volume suffisant pour stabiliser le pattern. Les chiffres communiques sont donc des **estimations indicatives**, qui donnent un ordre de grandeur. La conclusion principale (la couverture fan-out moyenne sur les sites français est faible, avec une forte dispersion) est probablement robuste, mais le chiffre exact de 38 pour cent est sujet a revision. ## Comment améliorer la couverture Pour une équipe qui voudrait améliorer sa propre couverture, la démarche tient en quatre étapes simples. Premièrement, lancer le fan-out de la requête cible via Qforia et lister les sous-requêtes générées. Deuxièmement, classer ces sous-requêtes par type (informationnelle, comparative, sous-aspect, réputation, après-vente). Troisièmement, lire la page-cible et identifier les sous-requêtes non couvertes. Quatrièmement, ajouter une section a la page pour chaque sous-requête non couverte, avec une réponse exploitable de cent cinquante a deux cent cinquante mots. L'effort représente généralement deux a quatre heures de travail éditorial par page-cible, formalisable via le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). Le retour est immédiatement visible dans le taux de citation par AI Mode, mesurable avec un [montage de monitoring en continu](/tactiques/tactique-10-monitoring-en-continu). Sur les pages que nous avons retravaillees après l'audit, l'amélioration de couverture s'est traduite par une augmentation moyenne du taux de citation, mais cette mesure n'est pas formellement établie sur le panel court. ## Que faire quand on est a J Le site J (couverture 20 pour cent) illustre un cas extrême. Sa page-cible est une page produit courte, optimisee pour le SEO classique avec une promesse claire et un appel a l'action visible. Elle convertit bien en SEO classique, parce que les utilisateurs qui arrivent sur la page sont près de l'achat. Le problème : sur le mode génératif, cette page est peu citée parce qu'elle ne couvre presque rien des sous-questions que l'utilisateur pose en amont de l'achat. Le fan-out demande une page qui informé, compare, rassure, anticipe. La page J ne fait que promettre. La solution n'est pas de detruire la page J. C'est de la doubler par un contenu de fond (article ou guide) qui couvre les sous-aspects manquants, en lien avec la page produit. La structure devient : un article ressource qui couvre 80 pour cent du fan-out, qui pointe vers la page produit pour la conversion. C'est le pattern hub-and-spoke applique au GEO. Solene Marchais détaillé cette structure dans la rubrique fondations. C'est probablement le levier structurel le plus efficace pour les marques dont les pages-cibles sont trop courtes. ### FAQ **Quelle est la couverture fan-out moyenne mesuree ?** 38 pour cent en moyenne sur les 10 sites francais analyses en avril 2026. La dispersion est forte: les sites les mieux couverts atteignent 67 pour cent, les moins bien 12 pour cent. Une couverture en dessous de 30 pour cent signifie que les deux tiers des sous-requetes vont a la concurrence. **Comment est calculee la couverture fan-out ?** On simule le fan-out sur une requete mere via Qforia, on releve la presence de la marque sur chaque sous-requete generee, puis on divise le nombre de sous-requetes traitees par le total et on multiplie par 100. **Quel outil utiliser pour simuler le fan-out ?** Qforia, propose par iPullRank et Mike King, est la reference accessible. Pour une equipe technique, un script qui demande a un LLM de deriver une requete en sous-questions donne un resultat equivalent. **Pourquoi viser plus de 38 pour cent ?** Parce qu'une page qui couvre 60 ou 70 pour cent des sous-requetes augmente fortement ses chances d'etre citee dans la reponse synthetique de Google AI Mode. La moyenne actuelle indique que la majorite des sites laissent du terrain a la concurrence. **Quelle taille de panel faut-il pour mesurer ?** 10 sites a 30 sous-requetes par requete mere donne un signal exploitable. En dessous, la variance reste elevee. L'etude actuelle utilise ce volume et reconnait ses limites methodologiques. **Cette etude est-elle reproductible ?** Oui. La methodologie est documentee et le simulateur Qforia est public. Toute equipe peut rejouer l'etude sur ses propres requetes meres et comparer les resultats. Les chiffres absolus peuvent varier mais l'orientation generale (couverture moyenne basse, dispersion forte) devrait se reproduire. ### Sources - [Qforia simulator](https://ipullrank.com/qforia) — Mike King, iPullRank - [Google AI Mode patent US20240289407A1](https://patents.google.com/patent/US20240289407A1) — Google LLC --- ## Étude maison: quelle densite de citation maximise la présence dans Perplexity - URL : https://geo-academy.fr/tactiques/tactique-11-citation-density-etude - Description : Résultats d'une expérimentation interne menee en avril 2026 sur la relation entré densite de citations sources et taux de citation Perplexity, avec méthodologie rejouable. - Auteur : solene-marchais - Publie le : 2026-04-12 - Tags : geo, citation-density, etude, perplexity **TL;DR.** Etude maison conduite par Academie GEO entre janvier et avril 2026 sur 40 articles, qui mesure l'effet de la densite de citation sources sur le taux de citation par Perplexity. Une densite de l'ordre d'une citation source toutes les 200 a 250 mots semble optimale. Les chiffres sont des estimations issues d'un panel test interne, pas une etude scientifique formelle. La methodologie est rejouable par toute equipe qui veut verifier le resultat. Cet article présente une étude maison conduite par l'équipe d'Academie GEO entré janvier et avril 2026. L'objectif était de mesurer si une densite de citation plus élevée dans un article augmentait son taux de citation par Perplexity. Le dispositif est rejouable, mais les chiffres communiques sont des estimations issues d'un panel test interne et non d'une étude scientifique formelle. [Solene Marchais](/auteurs/solene-marchais) décrit la méthodologie et les résultats avec les precautions méthodologiques qui s'imposent. ## La question posee Le [papier Princeton 2311.09735 sur la densite de citation](/tactiques/tactique-02-densite-citation-princeton) a mesure qu'une augmentation du nombre de citations dans un texte augmente sa probabilité d'être sélectionné par un moteur génératif. L'étude originale a été conduite sur GEO-bench, un benchmark synthétique. La question pratique est de savoir si l'effet se reproduit sur Perplexity en conditions réelles, et a quelle densite il atteint un plateau ou commence a être contre-productif. L'hypothese a tester : la densite de citation a un effet positif jusqu'a un certain seuil, au-dela duquel l'effet devient marginal voire negatif (saturation, perte de lisibilite, sur-optimisation perceptible). ## La méthodologie Le protocole repose sur un panel de quarante articles publiés sur des domaines partenaires entré janvier et mars 2026. Les articles couvrent des thématiques variees (B2B SaaS, santé, finance, voyage, mode), avec une longueur normalisee entré mille deux cents et mille cinq cents mots. Les articles sont regroupes en quatre groupes de dix, chaque groupe correspondant a une densite de citation différente : | Groupe | Densite cible | Nombre moyen de citations sur 1500 mots | |--------|---------------|----------------------------------------| | Faible | 1 citation toutes les 500 mots | 3 citations | | Modérée | 1 citation toutes les 300 mots | 5 citations | | Élevée | 1 citation toutes les 200 mots | 7-8 citations | | Très élevée | 1 citation toutes les 100 mots | 14-15 citations | Les articles sont publiés, puis crawles par les bots IA. Après une période de stabilisation de trois semaines (pour laisser le temps au moteur de les indexer), un panel de soixante prompts est lance sur Perplexity, les mêmes pour les quarante articles testés. Le taux de citation est mesure : pour chaque article, sur combien de prompts pertinents Perplexity le cité-t-il en source ? ## Les precautions méthodologiques Le dispositif a des limites qu'il faut nommer. Le panel est petit : quarante articles, ce n'est pas un echantillon statistiquement large. La sélection des thématiques est diversifiee mais non aleatoire : nous avons travaille avec les domaines partenaires disponibles. Les domaines hotes ont des autorités variees, ce qui introduit du bruit dans la mesure. Surtout, le facteur "densite de citation" n'est jamais isolé purement. Augmenter la densite de citations modifié aussi indirectement la longueur perçue du paragraphe, le rythme de la lecture, la manière dont les sections sont structurées. Difficile de dire que l'effet mesure est purement attribuable a la densite, plutôt qu'a un changement plus global de qualité éditoriale corollaire. Les résultats ci-dessous sont donc présentes comme **indicatifs**, issus d'un dispositif maison repliquable mais pas d'une expérimentation scientifique. Une étude formelle, avec un panel de plusieurs centaines d'articles et un contrôle plus rigoureux des covariables, serait nécessaire pour passer du qualitatif a l'établi. ## Les résultats Le tableau suivant résumé le taux de citation moyen mesure par groupe, sur le panel de soixante prompts. | Groupe | Densite | Taux de citation Perplexity | |--------|---------|---------------------------| | Faible | 1/500 mots | 11 pour cent | | Modérée | 1/300 mots | 18 pour cent | | Élevée | 1/200 mots | 27 pour cent | | Très élevée | 1/100 mots | 24 pour cent | Trois lectures se degagent. D'abord, l'effet observe va dans la direction du papier Princeton : plus de citations augmente le taux de citation Perplexity. Le passage du groupe faible au groupe élevé fait plus que doubler le taux mesure. Ensuite, l'effet n'est pas lineaire. Le passage de "élevée" a "très élevée" produit un léger recul (de 27 a 24 pour cent). C'est coherent avec l'hypothese de saturation : au-dela d'une certaine densite, l'ajout de citations supplémentaires n'apporte plus de signal positif et peut commencer a degrader la lisibilite ou a déclencher des heuristiques anti-spam. Enfin, la dispersion intra-groupe est forte. Sur le groupe "élevée", certains articles atteignent 45 pour cent de taux de citation, d'autres restent autour de 12 pour cent. La densite n'est pas le seul facteur : la qualité des sources citées (autorité, fraicheur, pertinence) compte autant que leur quantite. ## Quelles citations comptent L'étude a permis d'identifier des facteurs qualitatifs qui modulent l'effet de la densite. Un même nombre de citations ne produit pas le même effet selon ce qui est cité. Trois types de citations ressortent comme particulièrement efficaces : Les **citations vers des sources reconnues** (papiers academiques, institutions officielles, presse de référence) ameliorent significativement le taux. Une citation vers le papier Princeton 2311.09735 vaut plus que dix citations vers des blogs anonymes. Les **citations chiffrees attribuees** (statistique source d'un rapport nomme, avec date et auteur) ont un effet supérieur aux citations textuelles non chiffrees. Le marqueur factuel est plus reconnaissable par le moteur. Les **citations récentes** (moins de douze mois) ont plus de poids que les citations plus anciennes, sauf quand l'article cité la source originale incontournable d'une notion (papier fondateur, définition canonique). A l'inverse, deux types de citations sont peu efficaces voire neutres : les liens internes au site de publication (ils comptent moins comme citation aux yeux du moteur), et les liens vers des sites de mauvaise réputation (ils peuvent être filtres comme bruit). ## Les implications pratiques Pour une équipe éditoriale, l'étude suggere quelques règles opérationnelles, formulees avec la prudence due a la taille du panel. Une densite cible de l'ordre d'une citation toutes les **deux cents a deux cent cinquante mots** semble être un bon point de fonctionnement, en cohérence avec la [méthodologie Citation Quality Score](/methodologie/citation-quality-score). Pour un article de mille cinq cents mots, cela correspond a six ou sept citations bien faites. La nature des sources prime sur le nombre. Six citations vers des sources solides battent dix citations vers des sources faibles. Pour la production éditoriale, cela signifie un effort de sélection des sources avant l'écriture, plutôt qu'un ajout de liens en post-relecture. La diversification des sources compte. Citer six sources différentes dans un même article a un effet supérieur a citer trois fois deux sources identiques. La diversité signale au moteur que le contenu est ancre dans un ecosysteme informationnel large, pas dans un point de vue unique. ## Les écarts avec d'autres moteurs Le panel a été testé sur Perplexity. Les mêmes articles ont été suivis (de manière moins systématique) sur ChatGPT Search et Google AI Mode pour quinze des soixante prompts. Les résultats sur ces deux autres moteurs sont moins nets : l'effet de la densite de citation est présent mais plus faible. Sur Google AI Mode en particulier, le facteur dominant semble être la présence d'entites nommees plus que la densite citation pure, ce qui correspond aux observations de [Camille Lefebvre](/auteurs/camille-lefebvre) dans son [article sur le query fan-out](/tactiques/tactique-01-anatomie-query-fan-out). Cette asymetrie mérite d'être soulignee. Optimiser pour Perplexity n'est pas exactement optimiser pour ChatGPT Search ou pour Google AI Mode. Une production éditoriale qui maximise les citations a un effet fort sur Perplexity, modéré sur ChatGPT Search, plus faible sur Google AI Mode. Pour une marque qui cible plusieurs moteurs, l'optimisation est multi-objectif et nécessite des arbitrages. ## Refaire l'étude chez vous Pour une équipe qui voudrait rejouer le dispositif, le protocole est simple a reproduire. Les ingredients : trente a cinquante articles publiés dans des conditions similaires, un panel de cinquante prompts representatifs, une période de stabilisation de trois semaines, l'API Perplexity, un script de parsing pour mesurer les citations. L'exécution prend trois semaines de calendrier (publication, stabilisation, mesure) et environ quatre jours de travail effectif (écriture script, lancement, analyse). C'est accessible a une équipe éditoriale modeste. Le retour sur investissement est l'apprentissage : même si vos chiffres différent des nôtres, vous saurez quelle densite marché pour **votre** contexte, et c'est ce qui compte. Solene Marchais publiera une version étendue de cette étude au printemps 2026, avec un panel elargi a cent vingt articles et un croisement plus rigoureux des covariables, comme le suit notre [baromètre GEO Pulse FR](/methodologie/geo-pulse-fr). Les chiffres ci-dessus sont a comprendre comme un premier jalon, pas comme un point d'arrivee. ### FAQ **Quelle densite de citation maximise la presence Perplexity ?** Une densite de l'ordre d'une citation source toutes les 200 a 250 mots semble optimale dans notre etude. Au-dela, l'effet sature. En dessous, le taux de citation reste faible. **Sur combien d'articles l'etude porte-t-elle ?** 40 articles publies entre janvier et mars 2026, selectionnes pour couvrir trois familles thematiques du magazine. Le panel reste limite et les resultats doivent etre interpretes comme une orientation pratique, pas comme une preuve scientifique. **L'etude confirme-t-elle le papier Princeton ?** Oui, dans son orientation generale. Le papier Princeton montrait que la densite de citation augmente la visibilite. Notre etude precise un seuil pratique (200 a 250 mots par citation) et un point de saturation, qu'on ne trouvait pas dans le papier original. **Comment ont ete collectes les chiffres ?** Pour chaque article, releve manuel sur Perplexity de la presence dans les reponses a un panier de 30 prompts representatifs du sujet. Releve effectue 3 fois par article a 7 jours d'intervalle pour limiter les variations conjoncturelles. **Qu'est-ce qu'une citation source dans cette etude ?** Toute reference factuelle attribuee a une source identifiee (chiffre cite avec source, etude mentionnee avec auteur, etc.). Les citations sans source identifiable n'ont pas ete comptees. La distinction est importante pour reproduire l'etude. **L'etude est-elle reproductible sur ChatGPT Search ou AI Overviews ?** La methodologie l'est. Les resultats peuvent differer car chaque moteur a ses propres ponderations. Une replication sur ChatGPT Search ou AI Overviews serait utile mais demanderait un effort comparable. Resultats potentiellement differents. ### Sources - [GEO: Generative Engine Optimization, papier Princeton](https://arxiv.org/abs/2311.09735) — Pranjal Aggarwal et al. - [Documentation Perplexity API](https://docs.perplexity.ai) — Perplexity AI --- ## Reecrire un article pour qu'il soit cité: protocole en sept passes - URL : https://geo-academy.fr/tactiques/tactique-15-reecriture-pour-citation - Description : Méthode éditoriale en sept passes pour transformer un article SEO classique en contenu optimise pour la citation par les moteurs génératifs. - Auteur : solene-marchais - Publie le : 2026-03-18 - Tags : geo, editorial, reecriture, protocole **TL;DR.** Protocole en sept passes pour transformer un article SEO classique en contenu cite par les moteurs generatifs (Perplexity, ChatGPT Search, AI Mode), conçu pour etre execute en deux a trois heures par article de 1500 mots. Chaque passe traite un levier specifique (chunking, entites, citations, freshness, fan-out, balisage, lecture finale), sans tenter de tout corriger en une fois. Methode utilisee depuis fin 2025 sur les contenus de l'academie. Beaucoup d'équipes éditoriales ont déjà un stock d'articles SEO publiés, optimises pour Google search en mode classique, mais peu performants sur les [moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs). La question pratique : comment retravailler ces articles pour qu'ils deviennent citables par Perplexity, ChatGPT Search, AI Mode, sans tout reecrire ? Cette tactique propose un protocole en sept passes, conçu pour être exécute en deux a trois heures par article. [Solene Marchais](/auteurs/solene-marchais) l'utilisé depuis fin 2025 sur les contenus de l'academie et ceux des clients accompagnes. ## Pourquoi sept passes L'erreur classique est de vouloir tout faire en une relecture. Le rédacteur ouvre l'article, lit, modifié au fil de la lecture, ferme. Résultat : certains leviers sont traités, d'autres oublies, et le rendu est inegal d'une section a l'autre. La logique des sept passes est différente. Chaque passé traite un levier unique, traverse l'article du début a la fin avec ce seul critere en tête, puis passé a la suivante. C'est plus lent en apparence (sept passes au lieu d'une), mais plus rapide en pratique (chaque passé est rapide parce que l'attention est focalisee). Et le résultat est plus homogene. Les sept passes sont, dans l'ordre : | Passé | Levier traite | |-------|---------------| | 1 | Auto-suffisance des chunks | | 2 | Densite de citation | | 3 | Datation explicite | | 4 | Nommage des entites | | 5 | Couverture fan-out | | 6 | Tableaux et données | | 7 | Suppression du remplissage | L'ordre n'est pas neutre : chaque passé prépare la suivante. ## Passé 1 : auto-suffisance des chunks La première passé traque les anaphores ambigues et les références contextuelles fragiles, principe central du [structured chunking](/tactiques/tactique-08-structured-chunking). On parcourt l'article en cherchant les expressions du type "comme nous l'avons vu", "ce dernier point", "elle", "ils", "cela". Pour chacune, deux options. Soit l'antecedent est immédiatement clair dans le même paragraphe (auquel cas on garde). Soit il est dans un paragraphe précédent ou dans le titre de la section : dans ce cas, on remplace la référence par le nom explicite de l'entite ou du concept. Exemple de transformation typique : Avant : "Cette notion est centrale, comme nous l'avons vu plus haut. Elle se decline en trois variantes." Après : "L'auto-suffisance d'un chunk est centrale. Elle se decline en trois variantes." La passé traite généralement entre cinq et quinze références par article. Elle prend vingt a trente minutes. ## Passé 2 : densite de citation La deuxième passé ajoute des citations. On parcourt l'article en mesurant la densite : a combien de mots de distance se trouve la prochaine citation source ? L'objectif vise est une citation toutes les deux cents a deux cent cinquante mots, conformément a [l'étude maison sur la citation density](/tactiques/tactique-11-citation-density-etude). Si la densite est plus faible, on identifié les passages factuels qui meritent une source. Pour chaque passage, on cherche la source pertinente (rapport, étude, article, papier) et on l'ajoute en lien. Quelques règles. Privilegier les sources primaires (rapport original, papier scientifique) plutôt que les articles de blog qui les citent. Datater les sources quand c'est possible. Diversifier (éviter de citer cinq fois le même rapport). La passé est plus longue : entré trente et quarante-cinq minutes selon le travail prealable de sourcing. Pour un article qui n'avait aucune citation, le retour sur investissement est très net. ## Passé 3 : datation explicite La troisième passé traque les expressions temporelles vagues. On cherche "actuellement", "récemment", "dans les années récentes", "ces derniers temps", "depuis peu". Chaque expression est remplacee par une date explicite. "Récemment" devient "en mars 2026". "Ces derniers mois" devient "depuis fin 2025". "Dans les années récentes" devient "entre 2023 et 2026". L'objectif n'est pas l'exactitude au jour près, c'est la datation suffisante pour qu'un chunk extrait dans six mois resté contextualisable. Une bonne reformulation contient l'information temporelle dans le chunk lui-même, pas dans une mention de l'article ou dans la date de publication. La passé est rapide : dix a quinze minutes pour un article moyen. L'effet est disproportionne : la datation explicite augmente significativement la confiance percue par les moteurs génératifs. ## Passé 4 : nommage des entites La quatrième passé vérifie que les entites clés sont nommées explicitement plusieurs fois dans l'article, pas seulement dans l'introduction. On parcourt l'article en se demandant : si j'extrais cette section et que je l'isolé, le lecteur sait-il de quelle entreprise / personne / concept on parle ? Si non, on ajoute le nom complet au moins une fois dans la section. La règle pratique : nommer chaque entite clé au moins une fois par section H2. Pour les entites secondaires, au moins une fois par section H3. La première mention dans la section utilisé le nom complet, les suivantes peuvent utiliser une forme courte si l'attribution resté claire. Cette passé va souvent de pair avec la passé 1, mais elle se concentré sur les **entites** plutôt que sur les **anaphores générales**. Les deux sont distinctes et meritent chacune un passage dédié. Duree typique : quinze a vingt minutes. ## Passé 5 : couverture fan-out La cinquième passé est la plus structurelle. On lance le [fan-out de la requête cible](/tactiques/tactique-01-anatomie-query-fan-out) de l'article (via Qforia ou un équivalent), on liste les sous-requêtes générées, et on vérifie que l'article les couvre, en s'appuyant sur le [Fan-Out Coverage Index](/methodologie/fan-out-coverage-index). Pour chaque sous-requête non couverte, deux options : soit on ajoute une section dédiée a l'article (cinq a dix minutes par section ajoutee), soit on accepte de ne pas couvrir et on documente pourquoi (typiquement parce que la sous-requête est trop eloignee du focus de l'article). La décision est stratégique. Un article qui couvre 80 pour cent du fan-out est plus cité qu'un article qui en couvre 50 pour cent. Mais ajouter des sections de remplissage dégradé aussi la coherence globale. Le bon équilibre se trouve généralement vers 70-80 pour cent de couverture, avec les sous-requêtes les plus eloignees laissees a d'autres pages du site. Cette passé est la plus longue : entré trente et soixante minutes selon le nombre de sections a ajouter. Elle est aussi la plus determinante. ## Passé 6 : tableaux et données La sixième passé identifié les passages qui pourraient gagner a être transformés en tableau. Trois cas typiques sont a considérer. Le premier cas : une enumeration a plus de trois items, avec des attributs parallèles pour chaque item. Une liste a puces de "le bot X est... le bot Y est... le bot Z est..." gagne a devenir un tableau a deux ou trois colonnes. Le deuxième cas : une comparaison entre deux ou trois alternatives. Le tableau comparatif est un format bien connu qui se prête particulièrement a la citation par les moteurs génératifs. Le troisième cas : un ensemble de chiffres clefs disperses dans le texte. Les regrouper dans un tableau de synthèse facilité l'extraction. Pour chaque transformation, on supprimé la version textuelle eparse et on la remplace par un tableau structure, place avant ou après le paragraphe explicatif principal. Le tableau a un titre H3 immédiatement au-dessus. Duree typique : quinze a trente minutes. ## Passé 7 : suppression du remplissage La septième passé est l'elagage. On parcourt l'article en cherchant les phrases qui n'apportent rien : transitions creuses, formules d'introduction floues, répétitions de ce qui vient d'être dit, generalites sans contenu. Chaque phrase repassee est evaluee selon une règle simple : si on l'enleve, est-ce que l'article perd quelque chose de spécifique et de vérifiable ? Si non, on l'enleve. Cette passé a un effet contre-intuitif : l'article devient plus court, mais sa densite informationnelle augmente. Les moteurs génératifs valorisent la densite. Une phrase de remplissage dilue le signal sans apporter d'information. La passé permet généralement de retirer 5 a 15 pour cent du volume d'un article SEO classique. Pour un article de mille cinq cents mots, on enleve cent a deux cent vingt-cinq mots de bruit. Le residu est plus lisible, plus citable, et plus rapide a traiter par le modèle génératif. Duree typique : vingt minutes. ## Le bilan en chiffres Le protocole en sept passes prend en moyenne deux a trois heures par article de mille cinq cents mots. C'est plus que les vingt minutes d'une relecture habituelle, mais beaucoup moins que la reecriture complète (huit a dix heures). Sur les contenus retravailles selon ce protocole entré janvier et avril 2026, l'équipe d'Academie GEO a observe une augmentation moyenne du taux de citation par Perplexity de l'ordre de 30 a 50 pour cent. Le chiffre est issu d'un suivi interne sur trente articles repris, avec une mesure avant/après a quatre semaines d'intervalle. La méthodologie est rejouable, mais les chiffres restent indicatifs et propres au contexte de l'academie. L'effet sur ChatGPT Search est plus modéré (15-25 pour cent en moyenne). L'effet sur Google AI Mode est encore plus difficile a mesurer faute d'outils stables, mais semble se situer dans une fourchette comparable. ## Une discipline plus qu'une recette Pour conclure, le protocole en sept passes n'est pas une recette miracle. C'est une discipline. Sa force tient a la systematicite : chaque passé traite un levier complet sur tout l'article, ce qui produit un rendu homogene. La discipline se construit avec la pratique. Après dix ou quinze articles retravailles selon le protocole, le rédacteur intègre les leviers a sa première écriture et n'a plus besoin du protocole de retraitement. C'est l'objectif final : que la prochaine génération d'articles soit déjà optimisee a la sortie de la plume, sans avoir a reecrire en sept passes après coup. ### FAQ **Pourquoi sept passes et pas une seule relecture ?** Parce que chaque passe traite un levier unique avec attention focalisee, ce qui rend le travail plus rapide et plus homogene qu'une relecture qui tenterait tout corriger en meme temps. Sept passes courtes valent mieux qu'une relecture longue et inegale. **Combien de temps prend le protocole ?** 2 a 3 heures par article de 1500 mots pour un redacteur entraine. Le temps depend de la qualite initiale: un article SEO bien structure demande moins de travail qu'un article promotionnel mal chunke. **Quel est le levier le plus important du protocole ?** L'ajout de citations sources avec chiffres (passe 2), conformement aux conclusions du papier Princeton. Plus la densite de citations chiffrees est elevee (sans tomber dans la saturation), plus la probabilite de citation par les moteurs augmente. **Le protocole s'applique-t-il aux nouveaux articles ?** Oui, mais l'effort est moindre car certaines passes (entites en clair, chunking) deviennent un reflexe d'ecriture. Sur un nouvel article, les sept passes prennent 1 a 2 heures au lieu de 2 a 3 sur un article a reecrire. **Faut-il faire toutes les passes ou peut-on en sauter certaines ?** Toutes les passes ne sont pas obligatoires sur tous les articles. Les passes 1 (chunking) et 2 (citations) sont quasi systematiques. Les passes 4 (fan-out) et 5 (Schema) sont prioritaires sur les articles strategiques. Les passes 6-7 sont de confort. **Le protocole convient-il a une equipe ou seulement un redacteur ?** Les deux. En equipe, il est efficace de specialiser: un redacteur fait les passes 1-2, un autre les passes 3-4, etc. L'homogeneisation de la grille permet une revue croisee plus rapide qu'une relecture totale. ### Sources - [GEO: Generative Engine Optimization, papier Princeton](https://arxiv.org/abs/2311.09735) — Pranjal Aggarwal et al. - [Brand Context Optimization, Olaf Kopp](https://www.kopp-online-marketing.com) — Olaf Kopp --- ## Quels bots IA visitent vraiment votre site et que font-ils - URL : https://geo-academy.fr/tactiques/tactique-14-bots-ia-comportement - Description : Inventaire des bots IA actifs en avril 2026: GPTBot, OAI-SearchBot, ClaudeBot, PerplexityBot, CCBot, leur comportement et leurs différences. - Auteur : camille-lefebvre - Publie le : 2026-03-04 - Tags : geo, bots, monitoring, crawl **TL;DR.** Cinq bots IA majeurs concentrent l'essentiel du crawl IA en avril 2026: GPTBot (entrainement OpenAI), OAI-SearchBot (retrieval ChatGPT Search), ClaudeBot (Anthropic), PerplexityBot (Perplexity recherche temps reel), CCBot (Common Crawl). Chacun a une fonction differente. Le monitoring des bots IA est un signal indirect mais utile sur la maturite GEO d'un site, et conditionne ce que les moteurs voient ou non. Pour comprendre votre [présence sur les moteurs génératifs](/fondations/lecon-07-mesurer-presence-ia), le suivi du crawl par les bots IA est un signal de premier ordre. Tous les sites n'attirent pas les mêmes bots, ni a la même fréquence. Cette tactique inventorie les bots actifs en avril 2026, décrit leurs comportements typiques, et explique comment lire leurs visites pour ajuster sa stratégie. ## La cartographie des bots IA majeurs Cinq bots concentrent l'essentiel du crawl IA en avril 2026. Chacun a une fonction différente et mérite d'être traite indépendamment. | Bot | Operateur | Fonction principale | Respecte robots.txt | |-----|-----------|---------------------|---------------------| | GPTBot | OpenAI | Crawl pour entraînement de modèles | Oui | | OAI-SearchBot | OpenAI | Indexation pour ChatGPT Search | Oui | | ClaudeBot | Anthropic | Crawl pour entraînement et retrieval | Oui | | PerplexityBot | Perplexity | Indexation pour le moteur de recherche | Oui | | CCBot | Common Crawl | Archivage public, source d'entraînement multiple | Oui | A côté de ces cinq, on trouve d'autres bots moins fréquents : Google-Extended (signal opt-in/opt-out pour l'utilisation par Bard et AI Mode), Bytespider (TikTok/ByteDance), FacebookBot (Méta), Amazonbot (Alexa, Q). Leur volume varie fortement selon les sites. ## GPTBot : le bot d'entraînement OpenAI GPTBot, identifié via le user agent "GPTBot/1.1" depuis sa mise a jour de mi-2024, est le crawler d'OpenAI dédié a l'entraînement des modèles GPT. Il n'a pas de rôle dans le retrieval temps réel : ce qu'il crawle alimente le corpus d'entraînement du modèle suivant, qui sera distille puis deploye plusieurs mois plus tard. Pour un site, être crawle par GPTBot a un effet structurel : le contenu peut finir dans le **paramètres** d'un futur modèle GPT, qui s'en servira lors de générations sans avoir besoin de retrieval, ce qui rejoint la [logique d'ingestion d'entraînement](/fondations/lecon-03-citation-vs-ingestion). Le délai entré crawl et impact est long (six mois a un an), mais l'effet, lui, est durable. OpenAI publié la liste des plages d'IP utilisées par GPTBot dans sa documentation officielle. Le respect de robots.txt est confirme : un site qui interdit GPTBot via "User-agent: GPTBot / Disallow: /" voit ses visites réduites a zéro en quelques jours. ## OAI-SearchBot : le bot de retrieval de ChatGPT Search OAI-SearchBot, apparu fin 2024, est le bot d'OpenAI dédié au retrieval temps réel pour ChatGPT Search. Quand un utilisateur pose une question dans ChatGPT en mode search, OAI-SearchBot peut déclencher un crawl frais sur des sites pertinents pour s'assurer de la fraicheur des informations. Le comportement est différent de GPTBot. OAI-SearchBot a tendance a faire des passages plus courts mais plus fréquents, ciblant des pages spécifiques liees a des requêtes récentes. Une page mise a jour aujourd'hui peut être revisitee par OAI-SearchBot dans les 24-48 heures, alors que GPTBot peut prendre plusieurs semaines avant de revenir. Pour un site qui privilegie la présence dans ChatGPT Search, c'est OAI-SearchBot qu'il faut autoriser et choyer (cache rapide, pas de blocage anti-bot trop agressif). Bloquer OAI-SearchBot est une [erreur stratégique débutant](/fondations/lecon-09-erreurs-debutant) pour qui vise la visibilité générative. ## ClaudeBot : le bot Anthropic ClaudeBot, identifié via "ClaudeBot/1.0" et ses variantes "claude-web" et "anthropic-ai", couvre a la fois le crawl pour entraînement et une fonction de retrieval pour les usages agentiques de Claude. La distinction n'est pas toujours nette dans les logs. Anthropic publié depuis 2024 une page dédiée qui détaille la politique de crawl. Le respect de robots.txt est confirme. Anthropic distingue trois user agents spécifiques : ClaudeBot pour l'usage général, Claude-User pour les interactions agentiques (quand un utilisateur Claude visite une page via l'agent), Claude-SearchBot pour le retrieval moteur (apparu plus récemment, en 2025). Le volume ClaudeBot est généralement inférieur a celui de GPTBot pour la plupart des sites français, ce qui reflete la part de marché plus faible d'Anthropic en Europe par rapport a OpenAI. Mais le bot est très actif sur les sites tech et documentation, ce qui correspond au profil utilisateur de Claude (developpeurs, professions intellectuelles). ## PerplexityBot : le bot du moteur PerplexityBot, identifié via "PerplexityBot/1.0", est le crawler de Perplexity. Sa fonction est purement orientee retrieval : Perplexity n'entraîne pas de modèle de fondation propre, donc le crawl alimente directement l'index utilisé par le moteur de réponse. Le comportement de PerplexityBot est très réactif. Une page nouvellement publiée sur un site fréquente par Perplexity est typiquement crawled dans les 24 heures, parfois dans les heures qui suivent la publication. Cette réactivité reflete le positionnement de Perplexity sur la fraicheur de l'information. Une remarque pratique : PerplexityBot est parfois accuse de ne pas respecter parfaitement robots.txt sur certains sites, ce qui a donné lieu a des polémiques publiques en 2024 et 2025. Anthropic et OpenAI sont généralement considérés comme plus disciplines sur ce point. Pour un site qui souhaite contrôler finement ses acces, surveiller spécifiquement PerplexityBot est une bonne pratique. ## CCBot : le bot Common Crawl CCBot, identifié via "CCBot/2.0", est le crawler de Common Crawl, une fondation a but non lucratif qui produit un dataset public mensuel de pages web. Common Crawl ne crawle pas pour son propre compte : ses dumps sont utilisés ensuite par d'autres acteurs (chercheurs, entreprises IA, ONG) pour des usages varies. Beaucoup des modèles de langage majeurs (GPT, LLaMA, Falcon, etc.) ont été entraînés en partie sur des dumps Common Crawl. Être présent dans Common Crawl signifie donc, indirectement, être disponible pour l'entraînement d'une grande partie des modèles open source et propriétaires actuels. CCBot crawle de manière extensive mais relativement lente : un passage par mois pour les sites de taille moyenne, plus fréquent pour les grands sites. Son user agent est explicite et son respect de robots.txt confirme. C'est probablement le bot le plus universellement utile a autoriser, parce qu'il alimente l'ecosysteme entier, pas un seul moteur. ## Lire ses logs : par ou commencer Pour exploiter le monitoring des bots IA, il faut acceder aux logs serveur. Trois options classiques : **Cloudflare.** Si vous etes derrière Cloudflare, le dashboard exposé les visites par user agent. Filtrer sur les noms de bots IA donné une vue d'ensemble en quelques clics, en complément du [montage de monitoring en continu](/tactiques/tactique-10-monitoring-en-continu). C'est l'option la plus simple. **AWStats ou GoAccess.** Pour les sites sur serveur propre, parser les logs Apache ou Nginx via AWStats ou GoAccess donné des rapports utilisables, gratuits et bien documentes. **Script Python ad hoc.** Pour des analyses plus fines (par section du site, par type de page), un script Python qui parse les logs bruts permet de tout faire. La logique est simple et le script tient en quelques dizaines de lignes. L'analyse minimale tient en trois questions. Quels bots viennent ? A quelle fréquence ? Sur quelles pages ? ## Les patterns reveillateurs Certains patterns dans les logs de bots IA sont particulièrement reveillateurs. Une **chute brutale du volume d'un bot** (typiquement -80 pour cent en quelques jours) signale presque toujours un problème technique : robots.txt mal configure, pages bloquees par mistake, lenteur de réponse soudaine. C'est a investiguer immédiatement. Une **hausse soudaine du volume d'un bot spécifique** sur certaines pages signale généralement une mention récente : quelqu'un a cité une de vos pages dans une discussion virale, le moteur s'en est apercu et est venu reverifier la fraicheur. C'est un signal positif a maintenir (ne pas modifier la page concernée dans la foulee). Un **deficit complet d'un bot majeur** (par exemple, zéro visite PerplexityBot sur six mois) signale que votre site n'est pas encore découvert par ce moteur. Les causes possibles : domain trop récent, pas de backlinks vers le site, robots.txt accidentellement bloquant, ou tout simplement absence de mention sur les sites que le moteur fréquente. C'est un signal d'investissement (faire connaître le site) plus que d'optimisation. ## Faut-il bloquer certains bots ? La question revient régulièrement, surtout pour les sites éditoriaux qui craignent de "donner" leur contenu pour l'entraînement de modèles concurrents. La réponse dépend du modèle économique. Pour un média commercial dont le revenu vient des visites humaines, bloquer GPTBot et CCBot peut sembler defensif. Mais l'effet collateral est de ne plus apparaître dans les futures générations de modèles, donc de perdre la visibilité générative. C'est un arbitrage stratégique, pas une évidence. Pour un site B2B qui cherche la visibilité générative, autoriser tous les bots est généralement la bonne option. Le contenu est conçu pour être cité, le crawl est un avantage. Pour un site qui produit du contenu juridiquement sensible (données personnelles, contenu sous licence stricte), un blocage cible peut être légitime. La règle générale : bloquer en sachant pourquoi, ne pas bloquer par réflexe. Le blocage technique se fait par robots.txt, qui est respecte par les cinq bots cités. Une règle simple "User-agent: GPTBot / Disallow: /" suffit a bloquer GPTBot intégralement. Pour des règles plus fines, par section, par fichier, la syntaxe robots.txt classique s'applique. Les bots IA majeurs respectent les directives en avril 2026, contrairement aux croyances repandues sur les réseaux sociaux. ### FAQ **Quels bots IA faut-il identifier en priorite ?** Cinq bots majeurs: GPTBot, OAI-SearchBot, ClaudeBot, PerplexityBot, CCBot. Ils concentrent l'essentiel du crawl IA en 2026. D'autres bots existent (Google-Extended, Bytespider, Applebot-Extended) mais ces cinq sont incontournables. **Quelle est la difference entre GPTBot et OAI-SearchBot ?** GPTBot crawle pour l'entrainement futur des modeles OpenAI. OAI-SearchBot crawle pour le retrieval temps reel de ChatGPT Search. Les deux sont distincts: bloquer GPTBot ne bloque pas OAI-SearchBot et reciproquement. **Tous les bots IA respectent-ils robots.txt ?** Pas tous, et pas avec la meme rigueur. Les bots des grands editeurs (OpenAI, Anthropic, Perplexity) respectent generalement robots.txt. Certains bots moins connus l'ignorent. Le monitoring des logs serveur est plus fiable que la simple declaration robots.txt. **Faut-il bloquer ces bots ?** Cela depend de la strategie. Bloquer GPTBot empeche l'entrainement futur sur le contenu mais pas la citation actuelle. Bloquer OAI-SearchBot empeche la citation dans ChatGPT Search. La plupart des marques laissent OAI-SearchBot et PerplexityBot, et arbitrent sur GPTBot. **Comment monitorer les visites de bots IA ?** Via les logs serveur (Apache, Nginx, Cloudflare). Filtrer par user-agent (GPTBot, ClaudeBot, etc.) et compter les visites par jour. Des outils comme Cloudflare Bot Analytics donnent une vue agreee sans configuration manuelle des logs. **Le monitoring des bots IA est-il un bon indicateur GEO ?** Oui, comme signal indirect. Un site avec une visite frequente de OAI-SearchBot et PerplexityBot a plus de chances d'etre cite que celui jamais visite. Mais le monitoring des bots ne remplace pas le monitoring des citations elles-memes. ### Sources - [OpenAI bot documentation](https://platform.openai.com/docs/bots) — OpenAI - [Anthropic bot documentation](https://support.anthropic.com/en/articles/8896518-does-anthropic-crawl-data-from-the-web-and-how-can-site-owners-block-the-crawler) — Anthropic --- ## Bâtir un monitoring GEO en continu sans budget enterprise - URL : https://geo-academy.fr/tactiques/tactique-10-monitoring-en-continu - Description : Méthode pour assembler une chaîne de mesure GEO opérationnelle avec des outils gratuits ou peu chers, adaptee aux équipes qui n'ont pas le budget Profound ou Otterly. - Auteur : solene-marchais - Publie le : 2026-02-18 - Tags : geo, monitoring, outils, mesure **TL;DR.** Un monitoring GEO viable pour une PME tient en un mix Google Sheets, scripts Python et trois outils gratuits. La frequence raisonnable est hebdomadaire pour un panel de 50 a 200 prompts. Le piege classique est de mesurer trop d'outils et trop souvent: la regularite vaut mieux que l'exhaustivite. Profound ou Otterly automatisent ce travail mais ne sont pas obligatoires pour produire un signal utile. Le marché des outils GEO entreprises est cher. [Profound](/outils/profound), [Otterly](/outils/otterly-ai), AthenaHQ, Goodie facturent entre cinq cents et plusieurs milliers d'euros par mois, ce qui est inaccessible a beaucoup d'équipes éditoriales et marketing. Pourtant, le besoin de [mesurer la présence sur les moteurs génératifs](/fondations/lecon-07-mesurer-presence-ia) est réel, y compris pour les PME et les agences de taille moyenne. Cette tactique décrit un montage opérationnel qui fonctionne sans cette gamme de budget. ## Ce qu'on cherche a mesurer Avant de parler outils, definissons l'objet de la mesure. Un monitoring GEO utile suit trois indicateurs principaux. **Le taux de citation par moteur.** Sur un panel de prompts representatifs de l'intention utilisateur cible, combien de fois la marque ou le site est-il cité dans les réponses de Perplexity, ChatGPT Search, Claude, Google AI Mode ? Le taux est exprime en pourcentage de prompts ou la mention apparaît. **La position de citation.** Quand le site est cité, est-il source principale, source secondaire, ou simple lien parmi vingt ? La distinction compte parce que la visibilité réelle pour l'utilisateur n'est pas la même. **Le delta concurrentiel.** Comment la marque se compare-t-elle a deux ou trois concurrents identifiés, sur les mêmes prompts ? L'évolution relative est plus intéressante que la mesure absolue, qui est sujette a beaucoup de bruit. Ces trois indicateurs constituent le coeur. On peut en ajouter d'autres (sentiment des mentions, sources concurrentes, attributs cités), mais ils ne sont utiles que si les trois premiers sont bien mesures. ## Le panel de prompts L'erreur la plus fréquente du monitoring GEO improvise est de ne pas construire un [panel de prompts stable](/fondations/lecon-08-prompt-set-de-base). Sans panel stable, les comparaisons d'une semaine a l'autre ne valent rien : on ne sait pas si un changement de score reflete un changement réel ou simplement un changement de prompts. Le panel stable doit réunir entre cinquante et deux cents prompts. Cinquante est le minimum pour une variance acceptable. Deux cents est souvent l'optimum, au-dela on perd en gerabilite. Les prompts couvrent les principales intentions utilisateurs cibles : informationnelle (questions de fond sur le sujet), comparative (X versus Y), commerciale (meilleur outil pour, comment choisir), navigationnelle (la marque elle-même, ses produits). Le panel se construit en trois étapes. D'abord, lister les requêtes-cibles SEO classiques de la marque (typiquement déjà documentees dans Search Console). Ensuite, transformer ces requêtes en prompts de moteur génératif (formulation conversationnelle, plus longue). Enfin, ajouter quinze a vingt prompts purement génératifs qui n'ont pas de pendant SEO classique : "quels sont les principaux concurrents de X", "X est-il fiable", "alternatives a X moins cheres". Une fois le panel établi, il ne change pas pendant six mois minimum. Sa stabilité garantit la comparabilite des mesures. ## La pile d'outils gratuits ou peu chers Voici un assemblage qui fonctionne en pratique pour une équipe sans gros budget. | Composant | Outil | Cout | Rôle | |-----------|-------|------|------| | Stockage panel | Google Sheets | gratuit | Liste des prompts, suivi résultats | | Exécution prompts | API Perplexity, ChatGPT, Claude | usage | Lancer les prompts en série | | Parsing réponses | Script Python | gratuit | Détecter mentions et calculer scores | | Visualisation | Google Sheets ou Looker Studio | gratuit | Graphiques d'évolution | | Monitoring crawl IA | Cloudflare logs ou [bot.txt visualizer](/tactiques/tactique-14-bots-ia-comportement) | gratuit | Suivi des bots IA visiteurs | Le coeur est un script Python d'une centaine de lignes qui lit le panel depuis Google Sheets, lance les prompts en série sur les API des moteurs, parse les réponses pour détecter les mentions de marque, et écrit les résultats dans une autre feuille Google Sheets. La logique tient en quelques heures de développement et le script tourne ensuite sans intervention. Le cout API est limite. Sur un panel de cent prompts exécute hebdomadairement sur trois moteurs, on consomme environ trois cents requêtes par semaine, soit mille deux cents par mois. Les couts API sont de l'ordre de quinze a quarante euros par mois selon les moteurs, beaucoup moins que les solutions enterprise. ## La fréquence raisonnable La fréquence est un piège classique. Beaucoup d'équipes commencent par vouloir mesurer quotidiennement, puis abandonnent au bout de trois semaines parce que la charge de revue est ingérable. La fréquence hebdomadaire est le bon compromis pour la plupart des contextes. Elle donné suffisamment de granularite pour détecter des changements significatifs, sans saturer l'attention. Le rituel : une exécution automatisée tous les lundis matin, un email de synthèse envoye le lundi midi, une revue manuelle de trente minutes le mardi pour interpréter les écarts. Pour des contextes spécifiques (lancement produit, gestion de crise reputationnelle), une fréquence quotidienne ponctuelle est justifiée, en s'appuyant sur des indices comme le [GEO Pulse FR](/methodologie/geo-pulse-fr). Mais elle doit être limitee dans le temps : une période de deux a quatre semaines maximum, après laquelle on revient a hebdomadaire. ## La détection de mention Le parsing des réponses pour détecter les mentions de marque est moins trivial qu'il n'y paraît. Trois cas de figure compliquent la détection. Le premier cas est la **citation deguisee**. Le moteur génératif cité la marque mais sans la nommér explicitement, en disant par exemple "un éditeur français de SaaS comptable spécialisé PME". Le script de parsing ne détecte pas la mention. Pour ces cas, il faut utiliser un modèle de langage de second niveau qui évalue la similarite semantique entré la réponse et le profil de la marque. Le deuxième cas est l'**ambiguite de nom**. La marque "Atlas" peut être confondue avec d'autres entites du même nom (Atlas Copco, Atlas du monde, etc.). Le script doit vérifier que la mention est bien dans le bon contexte (secteur, pays, attributs), pas une homonymie. Le troisième cas est le **lien sans mention textuelle**. Sur Perplexity, la réponse peut citer un site (avec lien et numéro de source) sans nommer la marque dans le texte. Pour détecter ces cas, il faut parser non seulement le texte mais aussi la liste des sources URL. Toute URL qui pointe vers le domaine de la marque compte comme citation. Le script doit gerer les trois cas. Une implementation soignee atteint un taux de détection autour de 85 a 95 pour cent. Le complement est trouve par revue manuelle hebdomadaire, qui sert aussi a ajuster les règles de détection. ## Le monitoring des bots IA En complement du monitoring de visibilité, un monitoring des bots IA visiteurs est utile. Il ne mesure pas la même chose, mais il donné un indicateur d'intérêt des moteurs pour le site. Cloudflare exposé dans son dashboard les visites par user agent. Filtrer sur GPTBot, OAI-SearchBot, ClaudeBot, PerplexityBot, CCBot, Google-Extended, donné une vue hebdomadaire de l'intérêt des bots, complétée par notre [analyse des bots IA en comportement](/tactiques/tactique-14-bots-ia-comportement). Une chute soudaine sur un bot spécifique peut signaler un problème technique (robots.txt mal configure, page bloquee, lenteur). Une montee soudaine peut signaler une recrudescence d'intérêt, par exemple suite a une mention dans un post viral repris par les moteurs. Le monitoring bots ne remplace pas le monitoring de citations, mais il le complète utilement. Et il est gratuit pour qui utilisé déjà Cloudflare. ## Le rapport hebdomadaire Le livrable final du monitoring est un rapport hebdomadaire de quelques pages. La forme classique tient en trois sections. D'abord, un **dashboard chiffres**. Tableau a quatre colonnes : moteur, taux de citation cette semaine, évolution semaine précédente, évolution mois glissant. C'est la lecture rapide, qui permet de voir si tout va bien sans ouvrir le détail. Ensuite, une section **évolutions notables**. Les écarts significatifs (positif ou negatif) sont commentes, avec hypothese explicative. Une chute brutale du taux Perplexity est-elle liee a un problème technique sur le site, a une publication concurrente, a un changement de comportement du moteur ? Enfin, une section **actions decidees**. Le rapport ne se contente pas de constater. Il propose ou valide deux ou trois actions de la semaine suivante : reformulation d'une page sous-représentée, ajout d'une mention sur une source tierce, correction d'un problème technique détecte. ## La discipline du long terme Pour conclure, le monitoring GEO sans budget enterprise tient autant a la discipline qu'a l'outillage. Un montage gratuit utilisé hebdomadairement pendant six mois donné plus de valeur qu'une plateforme premium utilisée de manière irreguliere pendant trois mois puis abandonnee. La clé est la régularité. Un même panel, une même fréquence, un même format de rapport, sur six a douze mois. Les écarts qui apparaissent dans cette duree sont significatifs. La régularité produit du signal la ou la sophistication ponctuelle ne produit que du bruit. Pour les équipes qui demarrent en GEO, c'est le conseil le plus robuste. ### FAQ **Combien coute un monitoring GEO sans outil paye ?** Quelques dizaines d'euros par mois pour les API (ChatGPT, Perplexity, Claude) plus le temps d'une demi-journee hebdomadaire pour le rejeu manuel et l'analyse. Bien moins que Profound (499 USD/mois) mais plus de temps humain. **Quels outils gratuits utiliser ?** Bing AI Performance (Microsoft, gratuit) pour Copilot. Google Search Console pour les SERP classiques. Google Sheets pour le panier et les calculs. Plus des scripts Python sur les API payantes pour le rejeu automatise. **Quelle frequence de mesure conseiller ?** Hebdomadaire pour debuter, mensuelle en regime de croisiere. La regularite vaut mieux que l'exhaustivite. Mieux vaut 50 prompts releves chaque semaine que 500 prompts releves une fois par trimestre. **Quels sont les trois indicateurs minimum a suivre ?** Taux de citation par moteur (Share of Answer), Citation Share (citations explicites avec lien), Brand Mention Frequency (volume total de mentions). Ces trois suffisent pour debuter sans etre noye sous les indicateurs. **Faut-il l'API officielle ou peut-on scraper ?** L'API quand elle existe et est tarifable raisonnablement. Le scraping de l'interface utilisateur est techniquement possible mais fragile et juridiquement risque. ChatGPT, Perplexity et Claude offrent des API utilisables pour ce monitoring. **Quand passer a un outil paye comme Peec.ai ?** Quand le panier depasse 200 prompts ou que l'equipe consacre plus d'une demi-journee par semaine au rejeu. A ce stade, Peec.ai (90 EUR) ou Otterly (29 USD) sont rentables. Pour Profound (499 USD), il faut un budget enterprise et un volume superieur. ### Sources - [Documentation Otterly.ai](https://otterly.ai) — Otterly - [Profound, GEO platform](https://www.tryprofound.com) — Profound --- ## L'optimisation par embeddings: prospective sérieuse ou marketing technique - URL : https://geo-academy.fr/tactiques/tactique-09-embedding-optimization - Description : Examen critique des promesses faites autour de l'optimisation par embeddings: ce que la technique permet vraiment, ce qu'elle ne permet pas. - Auteur : camille-lefebvre - Publie le : 2026-02-04 - Tags : geo, embeddings, vecteurs, critique **TL;DR.** Les embeddings sont une representation vectorielle du texte, pas un levier d'optimisation directe. Aucun moteur generatif majeur n'expose une API permettant de mesurer la position d'une page dans son espace vectoriel. Les offres commerciales d'audit embedding-based sont en grande partie marketing technique. En pratique, travailler son embedding revient a travailler son champ semantique, levier deja maitrise en SEO classique. L'optimisation par embeddings est devenue un argument commercial récurrent dans le marché français du GEO. Plusieurs agences et éditeurs d'outils proposent des audits "embedding-based", des scores "vector relevance", des consultations sur la "distance vectorielle" entre une page et une requête cible. La promesse est seduisante : optimiser la représentation vectorielle d'un contenu permettrait de gagner mecaniquement en visibilité. Examinons ce qui tient et ce qui ne tient pas. ## Ce qu'est un embedding Un embedding est une représentation numérique d'un morceau de texte. Le texte (mot, phrase, paragraphe, document) est passé par un modèle neuronal qui produit en sortie un vecteur, c'est-a-dire une liste de nombres réels. Selon le modèle utilisé, le vecteur peut avoir trois cents, cinq cents, mille cinq cents ou trois mille dimensions. Le vecteur en lui-même n'a aucun sens visible pour un humain. Sa propriété utile est qu'il permet de calculer une distance entre deux textes : si deux textes sont semantiquement proches, leurs vecteurs seront proches dans l'espace vectoriel; s'ils sont semantiquement distants, leurs vecteurs seront distants. La distance utilisée est généralement la similarite cosinus. Cette représentation est utilisée dans beaucoup de systèmes : recommandation de contenu, deduplication, classification, et bien sur retrieval pour les [pipelines RAG cote redacteur](/tactiques/tactique-05-rag-pour-redacteurs). Un moteur génératif qui doit retrouver des documents pertinents pour une requête utilisateur convertit la requête en embedding, puis calcule la distance entré cet embedding et ceux des documents indexes, pour ne retenir que les plus proches. ## Le malentendu central Le malentendu commercial commence ici. Beaucoup d'acteurs font comme si un site pouvait "optimiser son embedding" pour se rapprocher des requêtes cibles dans l'espace vectoriel. C'est faux a deux titres. Premier point, l'embedding n'est pas une propriété de la page. C'est le résultat d'un calcul effectue par un modèle. Selon le modèle utilisé (text-embedding-3-small d'OpenAI, BGE de BAAI, E5 de Microsoft, voyage-2 de Voyage AI), le vecteur produit pour la même page sera différent. Il n'existe pas un embedding canonique de la page : il existe autant d'embeddings que de modèles. Second point, on n'a pas acces aux embeddings utilisés par les moteurs génératifs. Google AI Mode utilisé une famille de modèles internes Gemini. ChatGPT Search utilisé probablement text-embedding-3-large d'OpenAI. Perplexity utilisé un mix qu'elle ne détaillé pas. Aucun ne donne de visibilité sur l'espace vectoriel utilisé pour le retrieval. L'idée qu'on puisse mesurer "la distance entré votre page et la requête cible dans l'espace vectoriel" releve donc d'un raccourci. On peut mesurer cette distance dans **un** espace vectoriel arbitrairement choisi, mais cet espace n'est pas celui qu'utilisé le moteur. Le score obtenu est un proxy, dont la correlation avec le comportement réel du moteur n'est ni mesuree ni mesurable. ## Ce qui fonctionne quand même L'objection ci-dessus ne signifie pas que la notion d'embedding est inutile au rédacteur. Elle signifie que l'optimisation directe est illusoire. Mais une optimisation indirecte tient. Le principe est simple. Tous les modèles d'embedding modernes sont entraînés sur des objectifs similaires : rapprocher les textes qui parlent du même sujet, éloigner ceux qui parlent de sujets différents. Les espaces vectoriels qu'ils produisent sont différents en détails, mais ils s'accordent sur la topologie générale : deux textes humainement perçus comme proches seront proches dans la plupart des espaces; deux textes percus comme distants seront distants partout. Cette propriété se reformule en un principe opérationnel : un texte qui couvre bien son champ semantique sera bien situé dans la plupart des espaces vectoriels. La manière d'optimiser pour les embeddings, c'est donc d'optimiser pour la couverture semantique, pas pour la distance vectorielle. ## La couverture semantique en pratique La couverture semantique désigne la manière dont un texte traite l'ensemble des concepts associes a son sujet principal, en lien avec une bonne pratique de [structured chunking](/tactiques/tactique-08-structured-chunking). Un article sur le RAG qui ne mentionne ni "retrieval", ni "embedding", ni "génération", ni "grounding" est mal couvert. Un article sur les mêmes sujet qui aborde tous ces concepts est bien couvert. Pour évaluer la couverture, deux méthodes coexistent. La première, qualitative, consiste a lister les concepts attendus pour le sujet et a vérifier qu'ils sont présents dans le texte. Cette méthode est artisanale mais utile pour écrire un brief solide. Pour un sujet "RAG", on listera : retrieval, embedding, vector store, similarity, génération, grounding, hallucination, citation, chunking. Le brief vérifie que chaque concept est aborde. La seconde, quantitative, mesure la présence relative des termes via des outils SEO classiques (TF-IDF, mot-clés LSI, outils du type SurferSEO ou Frase). Ces outils ne mesurent pas vraiment l'embedding, mais ils approximent la couverture lexicale, qui est correleee a la couverture semantique. La correlation est imparfaite mais significative. ## Le piège des promesses excessives Plusieurs éditeurs de logiciel proposent en avril 2026 des outils qui pretendent donner un "score d'optimisation embedding" pour chaque page d'un site. Le score est calcule en convertissant la page en vecteur via un modèle open-source, puis en mesurant sa proximite avec des requêtes cibles convertirent dans le même espace. Le score n'est pas faux : il mesure quelque chose. Il mesure la proximite dans **un** espace vectoriel particulier. La question est : ce score correle-t-il avec la visibilité réelle dans Perplexity ou ChatGPT Search ? Aucun de ces éditeurs n'a publié de validation indépendante de cette correlation. La correlation n'est ni demontree ni refutee. En l'absence de validation, le score doit être traite comme un indicateur indicatif, pas comme une mesure fiable. Une page qui a un mauvais score embedding selon ces outils a probablement une mauvaise couverture semantique. Mais une page qui a un bon score n'est pas garantie d'être bien retrieved par les moteurs génératifs. ## Les exceptions techniques Il existe quelques cas ou l'analyse par embeddings apporte une vraie valeur, au-dela du proxy de couverture semantique. Le premier cas est la **détection de duplication semantique**. Deux pages d'un même site qui ont des embeddings très proches couvrent probablement le même sujet. Si elles cherchent toutes deux a positionner sur la même requête, il y a cannibalisation. L'embedding aide a détecter ces doublons que la simple comparaison de texte ne capture pas (deux pages peuvent avoir 0% de mots en commun et 95% de similarite semantique). Le deuxième cas est l'**audit de coherence thématique d'un cluster**. Sur un site avec plusieurs centaines de pages, mesurer les distances vectorielles permet de visualiser des regroupements thématiques et de repérer les pages orphelines, mal connectees au reste du site. L'aide a la décision est réelle. Le troisième cas est le **benchmark concurrentiel**. Comparer les embeddings de pages concurrentes sur une même requête permet de visualiser ou se positionné notre page : au cluster majoritaire, en peripherie, ou a l'écart. C'est un indicateur de positionnement stratégique, pas de visibilité mecanique. Sur ces trois cas, les outils d'embedding apportent quelque chose. La clé est de ne pas en attendre plus que ce qu'ils peuvent réellement faire. ## Recommandation pratique Pour une équipe éditoriale en avril 2026, la recommandation est sobre. Investir dans la couverture semantique des contenus : oui. Acheter un outil spécialisé embedding pour mesurer la distance vectorielle a chaque requête cible : non, ou avec parcimonie. Le retour sur investissement d'un outil embedding pour un site de taille moyenne (quelques centaines de pages) est généralement plus faible que celui d'un effort de fond sur la production éditoriale, le [balisage Schema.org](/tactiques/tactique-07-schema-org-llm), et la [présence Wikidata](/tactiques/tactique-13-entites-wikidata). Ce sont les leviers structurels. L'embedding-as-a-service est un complement, pas un fondement. L'honneur intellectuel impose neanmoins de ne pas balayer le sujet. Les modèles d'embedding sont une technologie réelle, importante pour la mecanique des moteurs. Le rédacteur a intérêt a comprendre leur principe, pour éviter d'être dupe des arguments commerciaux abusifs autant que pour faire les bons choix de couverture semantique. La science est solide, c'est l'usage marketing qui parfois deborde. ### FAQ **Qu'est-ce qu'un embedding ?** Une representation numerique d'un morceau de texte sous forme de vecteur (liste de nombres). Selon le modele, le vecteur a 300, 500, 1000 ou 3000 dimensions. Deux textes semantiquement proches ont des vecteurs proches dans l'espace vectoriel. **Peut-on optimiser directement son embedding ?** Non, pas directement. L'embedding d'une page est calcule par le modele du moteur, qu'on ne controle pas. On peut influencer indirectement l'embedding en modifiant le contenu (mots, structure, contexte semantique) mais pas le mesurer chez le moteur cible. **Les outils qui vendent un audit embedding sont-ils utiles ?** Partiellement. Ils mesurent un proxy de l'embedding via un modele public (OpenAI text-embedding-3, Sentence-BERT). Ce proxy est correle a ce que produit le moteur generatif, sans etre identique. Utile pour des comparaisons relatives, pas pour des mesures absolues. **Quelle action concrete faire pour ameliorer son embedding ?** Travailler le champ semantique: synonymes, entites associees, contexte thematique riche. C'est le levier de semantic SEO classique. Une page bien ecrite, avec un champ semantique dense, aura un embedding bien place naturellement. **Quelle distance mesure-t-on entre embeddings ?** La similarite cosinus, generalement. Elle mesure l'angle entre deux vecteurs, donc leur proximite directionnelle. Une similarite cosinus de 1 signifie identique, de 0 signifie sans rapport, de -1 signifie oppose. **Faut-il payer un consultant en optimisation embedding ?** Pas necessairement. Le travail editorial classique (champ semantique, entites, structure) suffit pour la majorite des cas. Un consultant embedding peut etre utile sur des contenus tres techniques ou des marches concurrentiels denses. ### Sources - [Sentence-BERT, papier fondateur](https://arxiv.org/abs/1908.10084) — Nils Reimers, Iryna Gurevych - [OpenAI text-embedding-3 documentation](https://platform.openai.com/docs/guides/embeddings) — OpenAI --- ## Le chunking semantique en pratique: decouper son contenu pour être cité - URL : https://geo-academy.fr/tactiques/tactique-08-structured-chunking - Description : Méthode opérationnelle pour structurer un article par chunks autonomes, optimisee pour le grounding par les moteurs génératifs. - Auteur : solene-marchais - Publie le : 2026-01-22 - Tags : geo, chunking, editorial, structure **TL;DR.** Le chunking est le decoupage automatique d'une page en unites de retrieval (chunks) effectue par les pipelines RAG. Un chunk autonome contient entre 120 et 300 mots et reste comprehensible hors contexte. La hierarchie H2-H3 sert de signal de chunk pour la majorite des pipelines. Un chunk doit nommer ses entites en clair, pas par pronoms ou anaphores, sous peine d'etre rejete au moment de la selection. Le chunking, c'est-a-dire le découpage d'un texte en unités indépendantes, est une étape technique invisible côté utilisateur mais décisive pour le GEO. Quand un moteur génératif retrouve une page, il ne la lit jamais entierement. Il la découpe, garde quelques chunks pertinents, et passé ces chunks au [modèle de génération du pipeline RAG](/fondations/lecon-04-comment-un-llm-cite). Si vos chunks sont mal formes, votre page sera mal exploitable, même si son contenu est excellent. Cette tactique décrit la méthode pour écrire des chunks qui survivent au découpage. ## Comprendre le découpage automatique Les pipelines de retrieval modernes appliquent une logique de chunking standardisee. Le texte d'une page est découpe selon plusieurs stratégies, qui varient selon les moteurs mais respectent quelques principes communs. Le chunk fixe par taille, qui découpe le texte tous les mille caracteres environ, avec un chevauchement de cent ou deux cents caracteres pour préserver le contexte. C'est la stratégie la plus simple, encore largement utilisée. Le chunk semantique, qui s'appuie sur les balises HTML (H2, H3, paragraphes) pour decouper aux frontières naturelles du texte, en interaction avec le [balisage Schema.org pour LLM](/tactiques/tactique-07-schema-org-llm). Plus subtil, il préserve mieux la coherence du contenu. Le chunk hybride, qui combine les deux : découpage primaire sur les balises, redecoupage secondaire si un chunk dépasse une taille maximale. C'est la stratégie la plus repandue dans les pipelines de production en 2026. Pour le rédacteur, la conséquence est claire : la manière dont la page est balisee influence directement la qualité du chunking automatique. Une page bien hierarchisee produit des chunks coherents. Une page sans hiérarchie produit des chunks coupes au milieu d'idées, qui perdent leur sens. ## La taille optimale d'un chunk Le consensus actuel place la taille optimale d'un chunk entré cent vingt et trois cents mots, soit environ huit cents a deux mille caracteres. Cette fourchette n'est pas arbitraire : elle correspond a ce que les modèles de génération peuvent intégrer comme contexte sans diluer leur attention. Un chunk trop court (moins de cent mots) manque de matière. Le moteur peut le retrouver, mais une fois passé au modèle, il ne fournit pas assez de contenu pour appuyer une réponse riche. Un chunk trop long (plus de quatre cents mots) risque d'être coupe par le pipeline, ou de diluer son thème sur plusieurs idées concurrentes. La taille n'est pas le seul critere. Un chunk de deux cents mots qui traite un seul sujet bien sourcee est plus utile qu'un chunk de trois cents mots qui melange deux sujets distincts. La densite informationnelle compte autant que le volume. ## L'auto-suffisance, contrainte centrale Le critere le plus important d'un chunk réussi est son **auto-suffisance**. Un chunk doit pouvoir être lu et compris sans le contexte de la page autour. C'est cette propriété qui le rend exploitable après extraction. Concrètement, l'auto-suffisance se traduit par plusieurs règles d'écriture. **Première règle, nommer les entites en clair**, en cohérence avec une [stratégie d'entités sur Wikidata](/tactiques/tactique-13-entites-wikidata). Un chunk qui parle de "l'auteur du papier" sans nommer l'auteur est inutilisable. Il faut écrire "Pranjal Aggarwal, auteur principal du papier Princeton 2311.09735". Le rédacteur SEO classique trouve ce niveau de redondance lourd. Le rédacteur GEO le calibre : il répète le nom complet la première fois dans chaque section, pas seulement dans l'introduction de l'article. **Deuxième règle, éviter les anaphores ambigues.** "Cela", "ceci", "celui-ci" sont des poison pour le chunking. Quand le chunk est extrait, l'antecedent est perdu. Mieux vaut nommer explicitement le concept refere : "Le query fan-out a cette conséquence" plutôt que "Cela a cette conséquence". **Troisième règle, expliciter le contexte temporel.** Un chunk qui dit "actuellement" ou "ces derniers mois" devient illisible quand il est extrait après quelques semaines. Mieux vaut "en mars 2026" ou "depuis fin 2025". La datation explicite augmente la fiabilité percue par le moteur génératif et aide le lecteur final a calibrer la fraicheur de l'information. ## La hiérarchie H2-H3 comme structure de chunk Le moyen le plus simple de produire un chunking propre est de structurer la page sur une hiérarchie H2-H3 stable. Chaque H2 introduit une section, chaque H3 introduit une sous-section. Le contenu sous un H3 forme une unité naturelle de chunk. La règle pratique : chaque H3 doit pouvoir être extrait avec son contenu et faire sens isolement. Si une lecture isolée de la sous-section laisse le lecteur sans comprehension, le chunk est mal forme. Une page tactique de mille cinq cents mots est typiquement organisée en cinq ou six H2, chacun comportant deux ou trois H3. Cela produit douze a dix-huit chunks naturels, chacun de cent a deux cents mots. La granularite est bonne, la couverture est riche, et chaque chunk est extractible. ## Le piège de la sur-segmentation A l'inverse, la sur-segmentation dégradé la qualité. Une page decoupee en H3 tous les cinquante mots produit des chunks tellement courts qu'ils n'apportent rien. Le moteur peut les retrouver, mais ils ne nourrissent pas la génération. L'exces de listes a puces participe au même problème. Une liste de douze items de dix mots chacun ne forme pas un chunk utile. Elle forme une succession d'items decoratifs sans capacite de fournir un contexte. C'est pour cette raison que l'écriture GEO privilegie la prose continue ou les tableaux a colonnes, plutôt que les listes a puces longues, comme le formalise le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). ## L'ouverture de section, levier sous-estime L'ouverture d'une section (le premier paragraphe sous un H2 ou un H3) est un levier sous-estime. Quand le pipeline de chunking découpe la page, il garde généralement le titre de section en début de chunk. Le premier paragraphe est donc lu en priorité par le modèle. Une bonne ouverture de section commence par poser le contexte minimal de la section, nomme les entites principales, indique l'enjeu. Pas d'introduction floue, pas de transition habile depuis la section précédente. Direct au sujet. Voici un exemple. Une mauvaise ouverture : "Comme nous l'avons vu plus haut, ce point mérite d'être détaillé. Nous allons donc voir comment procéder." Une bonne ouverture : "L'auto-suffisance d'un chunk impose trois règles d'écriture : nommer les entites, éviter les anaphores, dater le contexte. Examinons chacune." La deuxième version donné au moteur génératif un contexte exploitable des le début du chunk, et lui permet d'extraire la phrase initiale comme réponse synthétique a une question. ## La cloture de section et la transition La cloture d'une section a moins d'importance que l'ouverture pour le chunking, mais elle compte pour la lisibilite humaine. Une bonne pratique est de finir chaque section sur une phrase qui résumé l'enjeu plutôt que sur une transition vers la section suivante. Les transitions internes a la prose ("nous allons maintenant voir") creent du bruit dans les chunks. Le moteur génératif extrait la phrase et le lecteur final voit "nous allons maintenant voir" sans avoir vu ce qui est annonce. Le chunk perd en crédibilité. Mieux vaut conclure la section et laisser le lecteur naviguer naturellement vers la suivante. ## Le cas des tableaux et des données Un tableau bien construit est un chunk en soi. Les pipelines de retrieval modernes savent capturer un tableau comme une unité indépendante, avec son titre et ses cellules. Cela donne au tableau un poids particulier dans la génération : il est extrait comme référence factuelle. Pour qu'un tableau fonctionne en GEO, il doit être nomme par un titre H3 immédiatement au-dessus, avoir des en-têtes de colonnes claires, et éviter les cellules vides ou les cellules ambigues. Un tableau bien fait est souvent le chunk le plus cité d'une page tactique. ## Le rédacteur comme architecte du chunk Pour conclure, l'idée centrale est un decentrage de la rédaction. Le rédacteur SEO classique pense a la page comme une unité : un titre, une introduction, un développement, une conclusion. Le rédacteur GEO pense a la page comme une collection de chunks, chacun autonome, chacun potentiellement extrait pour une question utilisateur différente. Cela ne veut pas dire abandonner la coherence globale de l'article. Une page qui n'est qu'une juxtaposition de chunks sans fil directeur resté mediocre. Cela veut dire ajouter une couche de structuration : la coherence globale plus l'autonomie locale. Les deux ensemble produisent un article qui se lit bien et qui s'extrait bien. C'est une discipline. Elle demande un peu plus de temps en rédaction. Elle payé pour les pages qui doivent vivre dans un ecosysteme génératif, c'est-a-dire toutes les pages dont le trafic provient de moteurs IA. En avril 2026, sur les segments B2B et tech, ce trafic représente entre dix et vingt-cinq pour cent du total selon les sites, mesurable via le [Citation Quality Score](/methodologie/citation-quality-score). La discipline n'est plus un luxe. ### FAQ **Qu'est-ce que le chunking en GEO ?** Le decoupage automatique d'une page en unites independantes (chunks) effectue par les pipelines de retrieval RAG. Quand un moteur retrouve une page, il ne la lit pas entierement, il decoupe et garde les chunks pertinents. **Quelle est la longueur ideale d'un chunk ?** Entre 120 et 300 mots, avec une mediane autour de 200. Plus court, le chunk manque de contexte. Plus long, il devient difficile a integrer dans une reponse synthetique. Les pipelines actuels (Pinecone, LangChain) utilisent souvent des chunks de 1000 caracteres. **Comment savoir si un chunk est autonome ?** Critere pratique: si on lit le chunk seul, sans le titre de la page, sans les paragraphes precedents, sans pronom ambigu, comprend-on de quoi on parle ? Si oui, le chunk est autonome. Si non, il faut nommer les entites en clair. **Faut-il abandonner les pronoms et reprises stylistiques ?** Pas tous, mais reduire les anaphores ambigues. Repeter le sujet en debut de paragraphe, eviter les reprises sur plusieurs paragraphes. La qualite stylistique souffre un peu, le retrieval gagne beaucoup. Compromis assume en GEO. **La hierarchie H2-H3 est-elle suffisante pour le chunking ?** Pour la plupart des pipelines, oui. Les chunks sont decoupes aux H2-H3 dans une bonne partie des implementations. Une page avec une hierarchie soignee (H2 thematiques, H3 sous-themes) chunke automatiquement bien. **Quels outils aident a verifier le chunking ?** Pinecone et LangChain proposent des utilitaires de simulation de chunking. Pour un audit rapide, copier un chunk dans un nouveau document et verifier qu'il reste comprehensible suffit dans la plupart des cas. ### Sources - [Best practices for chunking in RAG systems](https://www.pinecone.io/learn/chunking-stratégies) — Pinecone Engineering - [Document chunking and embedding for retrieval](https://docs.langchain.com) — LangChain documentation --- ## Être une entite Wikidata: pourquoi c'est devenu un prérequis - URL : https://geo-academy.fr/tactiques/tactique-13-entites-wikidata - Description : Pourquoi la présence dans Wikidata est devenue un signal central pour le grounding des moteurs génératifs, et comment construire une fiche solide. - Auteur : solene-marchais - Publie le : 2026-01-15 - Tags : geo, wikidata, entity-seo, grounding **TL;DR.** Wikidata est un graphe ouvert utilise comme reference d'entite par la majorite des moteurs generatifs. L'identifiant Q desambiguise sans erreur, les proprietes structurees fournissent un socle factuel verifiable, et les relations entre entites donnent le contexte. Une marque qui n'y figure pas n'existe pas comme entite reconnue. Une fiche Wikidata propre prend trois a cinq heures de travail bien fait pour une marque B2B classique. L'admissibilite est moins exigeante que Wikipedia. Wikidata est passé en quelques années du statut de projet annexe de Wikipedia a celui d'infrastructure centrale du web semantique. La majorité des [moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs) s'appuient sur Wikidata comme référence de desambiguisation et de grounding d'entite. Une marque qui n'y figure pas n'existe pas comme entite reconnue. Cette tactique explique pourquoi, et comment construire une fiche solide sans tomber dans les pièges de la procédure. ## Pourquoi Wikidata compte autant Wikidata est un graphe de connaissance ouvert, multilingue, structure, edite collaborativement. Chaque entite (personne, organisation, lieu, oeuvre, concept) y a un identifiant unique sous la forme Q suivi d'un nombre, et un ensemble de propriétés structurées (date de naissance, fondateur, secteur, sites web officiels, etc.). L'intérêt pour les moteurs génératifs est triple. D'abord, l'identifiant Wikidata permet de **desambiguiser** sans erreur : "Apple" peut renvoyer a la société (Q312), au fruit (Q89), aux Beatles (Q310989). L'identifiant Q tranche. Ensuite, les propriétés structurées fournissent un **socle factuel vérifiable** : la date de fondation d'une entreprise, le nom du PDG, l'adresse du siège sont des champs structurés, pas du texte libre. Enfin, le graphe relie les entites entré elles, ce qui permet au moteur de remonter le **contexte relationnel** (concurrents, partenaires, secteur). En pratique, beaucoup de moteurs génératifs utilisent Wikidata comme premier point de vérification quand ils rencontrent une entite. Une marque présente dans Wikidata avec des propriétés correctes sera grounded sans difficulte. Une marque absente devra se construire un grounding ad hoc a partir de sources web heterogenes, avec un risque d'incoherence et de confusion. ## La différence avec Wikipedia Beaucoup confondent Wikidata et Wikipedia. La distinction est cruciale parce que les règles d'admissibilite différent. Wikipedia exige une **notabilite éditoriale**. Une marque qui souhaite avoir sa fiche Wikipedia doit montrer une couverture médiatique substantielle, dans des sources reconnues, sur la duree. Pour beaucoup de PME et de marques B2B, l'admissibilite est difficile a établir, et les fiches sont supprimees après création. Wikidata exige une **notabilite de structure**. Les criteres sont nettement plus larges. Une entite est admissible si elle "représente une chose claire et identifiable", si elle "est décrite dans une source autorité", ou si elle "remplit une fonction structurelle dans le graphe". Cela ouvre la porte a beaucoup d'entites qui ne pourraient pas avoir leur fiche Wikipedia : entreprises de taille moyenne, dirigeants publics mais non célèbres, produits structurés, lieux spécifiques. L'intuition pratique : si votre marque a un site web actif, des dirigeants identifiés, une adresse, et au moins une mention dans une source autorité (presse, annuaire professionnel reconnu, base de données publique), elle est probablement admissible Wikidata. ## Le contenu d'une fiche solide Une fiche Wikidata utile pour le grounding ne se limite pas a un identifiant et un nom. Elle comporte un ensemble de propriétés qui ensemble construisent un profil exploitable. Voici les propriétés minimales pour une organisation commerciale : | Propriété | ID | Exemple de valeur | |-----------|----|----| | Nom official | label en français et anglais | Cabinex | | Description | description courte | éditeur de logiciel SaaS | | Type d'entite | P31 (instance of) | entreprise | | Pays | P17 | France | | Secteur d'activité | P452 | édition logicielle | | Date de fondation | P571 | 15 mars 2018 | | Fondateur | P112 | Marie Dupont, Thomas Verdier | | Siège social | P159 | Lyon | | Site web officiel | P856 | https://cabinex.fr | | Compte LinkedIn | P4264 | identifiant LinkedIn | | SIRET | P3215 | numéro SIRET | Au-dela de ces propriétés minimales, on peut ajouter le nombre d'employes (P1128), le chiffre d'affaires (P2139), le PDG actuel (P169), les filiales (P355), les principaux concurrents (P1830), etc. La règle est simple : ajouter une propriété uniquement si on peut la sourcer avec une référence externe vérifiable. ## Le sourcing, étape critique La grande différence entre une fiche fragile et une fiche solide est le **sourcing**. Chaque propriété declaree devrait idéalement avoir au moins une référence externe : un lien vers une source qui prouve la valeur indiquée. Les sources acceptables sont varies. Pour les attributs administratifs (date de création, siège, SIRET), une fiche INSEE ou une fiche infogreffe convient. Pour les dirigeants, une page officielle du site de l'entreprise ou un article de presse fait l'affaire. Pour le secteur d'activité, le site officiel ou un communique press. Sans sourcing, les propriétés ajoutees sont fragiles : elles peuvent être supprimees par d'autres éditeurs Wikidata. Avec sourcing, elles sont stables. Le temps consacre au sourcing représente bien la moitie du temps total d'édition d'une fiche, mais c'est ce qui assure sa perennite. ## Le piège de l'auto-promotion Wikidata est edite par une communaute attentive. Une fiche qui ressemble a une opération de communication sera reperee, marquee, voire supprimee. Trois pièges classiques sont a éviter. Le premier piège est la **description publicitaire**. Wikidata exige des descriptions factuelles, courtes, neutres. "Éditeur de logiciel SaaS pour PME" est correct. "Solution innovante de comptabilite revolutionnant la gestion des PME" sera marque comme description promotionnelle. Le deuxième piège est l'**ajout de propriétés non sourcables**. Vouloir indiquer "leader du marché français" sans pouvoir le sourcer est imprudent. Wikidata exige du vérifiable, pas du commercial. Le troisième piège est l'**éditeur identifié comme membre de l'organisation**. Un compte Wikidata qui edite uniquement la fiche de sa propre entreprise sera repère comme "single-purpose account" et son travail sera scrute. Mieux vaut, quand c'est possible, faire éditer la fiche par une personne externe a l'organisation, ou bien être transparent sur son lien et limiter la fréquence des modifications. ## La procédure pas a pas Voici une procédure opérationnelle pour créer une fiche Wikidata pour une entreprise qui n'en a pas encore. **Étape un, recherche prealable.** Vérifier sur wikidata.org que l'entite n'existe pas déjà. Tester plusieurs orthographes du nom. Si une fiche existe déjà, on l'enrichit, on n'en crée pas une nouvelle. **Étape deux, sourcing prépare.** Avant de toucher a Wikidata, rassembler une liste de sources externes pour chaque attribut a déclarer. Site officiel, fiche INSEE, fiche infogreffe, articles de presse références, profil LinkedIn de l'entreprise. **Étape trois, création de l'entite.** Cliquer sur "create new item", ajouter le label en français et en anglais, ajouter une description courte (moins de 100 caracteres) en français et en anglais. **Étape quatre, ajout des propriétés.** Ajouter une par une les propriétés minimales, chacune avec sa référence externe. Commencer par les plus solides (date de fondation sourcee, type d'entite, pays). **Étape cinq, vérification cross-link.** Vérifier que la fiche Wikidata est referencee depuis votre site (via sameAs dans le [JSON-LD Schema.org](/tactiques/tactique-07-schema-org-llm)) et que votre site est referencee depuis la propriété site web officiel (P856) dans Wikidata. Le double-pointage stabilisé l'association. L'ensemble représente généralement trois a cinq heures pour une entreprise simple. Pour une entreprise complexe (groupe avec filiales, personnages dirigeants multiples, présence internationale), compter dix a quinze heures. ## L'effet sur le grounding L'effet d'une fiche Wikidata propre sur le grounding est mesurable mais lent, dans la lignée des principes [citation vs ingestion](/fondations/lecon-03-citation-vs-ingestion). Les moteurs génératifs ne reactualisent pas leur représentation interne instantanement. Le délai typique entré la création d'une fiche et son utilisation observable par les moteurs est de l'ordre de deux a quatre mois. Une fois l'effet en place, il est durable. Les moteurs génératifs s'appuient sur Wikidata comme référence de fond, qui resiste aux variations conjoncturelles. Une marque présente dans Wikidata avec des propriétés correctes a une stabilité de grounding supérieure a une marque qui dépend uniquement de sources web variables. C'est pour cette raison que l'investissement Wikidata est l'un des plus rentables a moyen-long terme dans une stratégie GEO. Le cout est faible (quelques heures de travail). L'effet est structurel et durable. Et il est indépendant des fluctuations des algorithmes des moteurs : Wikidata est une référence partagee, pas une boîte noire propriétaire. ## L'inscription dans une démarche plus large La fiche Wikidata n'est pas une fin en soi. Elle s'inscrit dans la démarche plus large de **construction d'entite** décrite dans l'[article sur le Brand Context Optimization](/tactiques/tactique-04-brand-context-optimization). La fiche est l'ancre publique de l'entite, le point de référence que les moteurs génératifs peuvent consulter pour desambiguiser et grounder. Mais elle n'a de sens que si la marque construit en parallèle sa coherence textuelle sur son site et sur les sources tierces. Une fiche Wikidata créée sans démarche éditoriale plus large est un pansement. Une fiche Wikidata créée dans le cadre d'une démarche complète (description canonique propre, presse coordonnee, schema.org coherent) devient un acceler-acceleur de visibilité. C'est cette deuxième option qui paie. La première resté utile mais marginale. Pour une équipe qui veut investir intelligemment, le Wikidata vient après l'audit éditorial, pas avant. ### FAQ **Pourquoi Wikidata est-il devenu un prerequis pour le GEO ?** Parce que les moteurs generatifs utilisent Wikidata comme reference de desambiguisation. L'identifiant Q tranche entre les homonymes (Apple = societe, fruit, Beatles), les proprietes structurees fournissent un socle factuel verifiable, et les relations donnent le contexte. **Quelle est la difference entre Wikipedia et Wikidata ?** Wikipedia est l'encyclopedie textuelle, Wikidata est le graphe structure. L'admissibilite Wikidata est moins exigeante (sources verifiables suffisent, pas de notabilite editoriale). Une marque peut etre dans Wikidata sans etre dans Wikipedia. **Comment creer une fiche Wikidata pour une marque ?** Creer un compte Wikidata, declarer l'entite, ajouter les proprietes principales (instance of: business, founded by, founded date, official website), ajouter les sources verifiables externes. Compter 3 a 5 heures pour une fiche complete sur une marque B2B classique. **Quelles proprietes Wikidata sont les plus importantes ?** Instance of (type d'entite), founded by (fondateurs), founded date, headquarters location, official website, industry, official social media accounts, identifiers (LinkedIn, Crunchbase, SIREN). Les sameAs vers ces identifiants externes renforcent le grounding. **Une fiche Wikidata garantit-elle d'etre cite ?** Non, mais elle conditionne fortement la possibilite. Sans fiche Wikidata, une marque peut etre confondue avec un homonyme ou ignoree. Avec une fiche solide, elle gagne en visibilite stable, surtout sur les prompts adjacents et les comparatifs. **Faut-il un consultant pour gerer sa fiche Wikidata ?** Pas necessairement. Une equipe motivee peut creer et maintenir une fiche elle-meme. Un consultant Wikidata est utile pour les marques complexes (multinationales, plusieurs entites legales) ou pour eviter le rejet par des editeurs experimentes en cas de premier essai. ### Sources - [Wikidata, page d'accueil](https://www.wikidata.org) — Wikimedia Foundation - [Wikidata Notability](https://www.wikidata.org/wiki/Wikidata:Notability) — Wikidata community --- ## Schema.org pour le grounding LLM: ce qui est pris au sérieux, ce qui ne l'est pas - URL : https://geo-academy.fr/tactiques/tactique-07-schema-org-llm - Description : Inventaire des types Schema.org effectivement utilisés par les moteurs génératifs en 2026, avec recommandations pratiques pour la production. - Auteur : camille-lefebvre - Publie le : 2026-01-08 - Tags : geo, schema, structured-data, json-ld **TL;DR.** Schema.org compte plus de 800 types, mais seule une minorite est lue activement par les moteurs generatifs. Article, Organization, Person et FAQPage sont consommes pour le grounding. Le sameAs vers Wikidata est un signal cle pour la desambiguisation entite. Beaucoup de types secondaires sont produits par les CMS mais peu exploites cote moteur. Le tri permet de concentrer l'effort sur ce qui pese reellement. Schema.org regorge de types. Le vocabulaire complet en compte plus de huit cents. La majorité n'est jamais utilisée par les moteurs. Une minorité est lue activement et influence le grounding. Cette tactique fait le tri en avril 2026, en s'appuyant sur les comportements observables des moteurs génératifs principaux. ## Pourquoi Schema.org resté pertinent Le balisage Schema.org sert deux objectifs distincts. Le premier est la génération d'extraits enrichis dans les SERP classiques (étoiles d'avis, prix, dates, miettes de pain). Le second, plus récent, est de fournir aux [moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs) un contexte d'extraction fiable. Quand un modèle de langage doit citer une page, il a intérêt a savoir qui en est l'auteur, quand elle a été publiée, a quelle organisation elle est rattachee. Schema.org le lui dit. Pour le GEO, le second objectif est devenu le plus important. Une page bien balisee ne se contente plus d'avoir des étoiles dans Google. Elle alimente le grounding de Perplexity, ChatGPT Search, AI Mode, Claude, et les rend plus surs de la citer. ## Les types qui marchent Quatre types ressortent comme les plus utilisés par les moteurs génératifs, sur la base d'observations menees sur un panel de cinq cents pages françaises en mars 2026. **Article.** Le type Article (et ses sous-types NewsArticle, BlogPosting, TechArticle) est le plus solide. Les propriétés lues en pratique sont author, datePublished, dateModified, headline, description, image et publisher. La propriété author renvoyant explicitement vers une entite Person, elle-même reliee par sameAs a un profil LinkedIn ou Wikidata, est un signal fort. Les pages dont l'auteur est une simple chaîne de caracteres ont moins de poids que celles dont l'auteur est une entite construite. **Organization.** Le type Organization, place sur la page d'accueil ou dans les en-têtes JSON-LD globaux, sert a identifier la marque éditrice. Les propriétés utilisées sont name, foundingDate, founder, sameAs, address, et numberOfEmployees. Le sameAs vers Wikidata, quand l'organisation y a une fiche, ferme la boucle d'identification. Le moteur génératif peut alors associer toute citation de la marque a une entite verifiee. **Person.** Le type Person s'applique aux auteurs et aux figures publiques mentionnées dans le contenu. La présence de Person sur les pages auteurs, avec jobTitle, worksFor, sameAs, alumniOf, est un facteur de [crédibilité éditoriale alignée sur le E-E-A-T](/fondations/lecon-06-eeat-pour-geo). Les magazines qui balisent sérieusement leurs auteurs envoient un signal de transparence que les moteurs génératifs interpretent positivement. **FAQPage.** Le type FAQPage resté utile, malgre la suppression de son rendu enrichi dans les SERP Google en 2023. Les moteurs génératifs continuent de le lire et de l'utiliser comme source de paires question-réponse extractibles. Sur Perplexity en particulier, les pages bien balisees FAQPage ressortent régulièrement comme sources directes pour des requêtes formulees comme questions. ## Les types tolerables mais peu rentables Certains types sont produits par les CMS et plugins SEO, mais leur effet réel sur le grounding est marginal. **BreadcrumbList.** Utile pour le rendu SEO classique (miettes de pain dans la SERP), peu mobilise par les moteurs génératifs. Le maintenir si on l'a, ne pas y consacrer un effort spécifique pour le GEO. **WebSite avec SearchAction.** Le potentiel sitelinks search box est génère par Google a partir de cette propriété. Pour les moteurs génératifs, l'effet est nul. **HowTo.** Le type HowTo a perdu son rendu enrichi pour la majorité des verticales en 2023. Il continue d'être lu par certains moteurs, mais l'effet est faible. Le maintenir uniquement si la page est réellement structurée en étapes ordonnees, sinon le retirer pour éviter le bruit. **Review et AggregateRating.** Ces types sont consommes par les moteurs génératifs quand ils sont coherents avec d'autres sources (présence de la marque sur Trustpilot, Google Business, etc.). Isolés, sans validation externe, leur poids est faible. La sur-optimisation est suspecte : un AggregateRating de 4.9 sur cinq cents avis sans présence externe correspondante est filtre. ## Les types qui n'apportent rien Beaucoup de types Schema sont produits par defaut par certains plugins, alors qu'ils n'ont aucun effet observable. WebPage place sur chaque page individuelle (le simple fait de déclarer qu'une page est une WebPage n'apporte rien sans propriétés spécifiques). SiteNavigationElement, SpeakableSpecification, ItemList sur des contenus non listables. Ces declarations alourdissent le code sans benefice. Une bonne hygiene consiste a les retirer. ## Le cas particulier du sameAs La propriété sameAs mérite une attention spécifique parce qu'elle est centrale pour le grounding entite. sameAs établit un lien explicite entre l'entite declaree sur le site (une Organization, une Person, un Place) et la même entite ailleurs sur le web : Wikidata, Wikipedia, LinkedIn, Crunchbase, profils officiels sur les réseaux sociaux. Le moteur génératif qui rencontre cette déclaration peut alors croiser les informations de plusieurs sources et constituer une représentation consolidee de l'entite. Un sameAs vers Wikidata est particulièrement fort, comme l'analyse notre [tactique sur les entités Wikidata](/tactiques/tactique-13-entites-wikidata). Wikidata est un graphe ouvert, multilangue, structure, que la majorité des moteurs génératifs utilisent comme référence de grounding. Quand une page déclare en JSON-LD `"sameAs": "https://www.wikidata.org/entity/Q12345"`, elle fournit au moteur l'identifiant canonique de l'entite. Le moteur n'a plus a desambiguiser : l'entite est nommée. Pour une marque qui n'a pas encore de fiche Wikidata, en créer une est l'investissement structurel le plus rentable en termes de grounding. Solene Marchais détaillé la procédure dans un autre article de la rubrique. Une fiche Wikidata propre, avec quelques sources vérifiables, prend trois a cinq heures de travail bien fait. L'effet est durable. ## Le format JSON-LD versus microdata Sur la question du format, le consensus est établi : JSON-LD est préférable a Microdata et a RDFa. Les moteurs lisent les trois, mais JSON-LD est plus simple a maintenir et a debugger. Il se place dans le `` ou en fin de ``, séparé du markup HTML, ce qui évite les pollutions accidentelles lors de modifications de présentation. Le piège classique est la duplication. Un site qui a a la fois du JSON-LD génère par un plugin SEO, du microdata herite d'un thème ancien, et un schema d'organisation déclare sur chaque page peut envoyer des informations contradictoires aux moteurs. Le menage est utile. ## Les pièges des plugins automatiques Beaucoup de plugins WordPress ou Shopify generent du Schema.org de manière automatique. La qualité est inegale. Trois pièges classiques meritent d'être signales. Le premier piège est le **schema generique**. Le plugin déclare toutes les pages comme WebPage, sans différenciation. C'est techniquement correct, mais inutile. Article, NewsArticle, BlogPosting, ProductPage donnent au moteur des signaux differencies que WebPage ne donne pas. Le deuxième piège est l'**author chaîne simple**. Le plugin déclare author comme une chaîne "Jean Dupont" au lieu d'un objet Person avec ses sameAs. Cela perd l'opportunité de relier l'auteur a son graphe d'entites. La correction demande une configuration de plugin (souvent disponible mais mal exposee). Le troisième piège est la **non-coherence entre le contenu visible et le balisage**. Un produit affiche en page a une note de quatre étoiles, mais le balisage AggregateRating déclare 4.9. Les moteurs verifient cette coherence et penalisent les écarts. ## Une politique éditoriale pragmatique Pour conclure, une politique pragmatique de balisage Schema.org en avril 2026 tient en cinq points. Baliser systématiquement Article sur les pages de contenu éditorial. Maintenir un Organization unique global avec sameAs vers Wikidata. Construire des entrees Person pour chaque auteur régulier. Garder FAQPage la ou les paires question-réponse sont réelles. Laisser tomber le reste, ou ne le maintenir que si le rendu SEO classique l'exige. C'est un programme exigeant mais limite. Il vaut mieux faire ces cinq éléments proprement que produire une couche de balisage exhaustive et incoherente. Les moteurs génératifs valorisent la coherence plus que l'exhaustivite. Une page claire avec quatre types Schema bien faits a plus de poids qu'une page bardee de quinze types desordonnes. ### FAQ **Quels types Schema.org sont vraiment utilises par les moteurs IA ?** Quatre types principaux: Article (auteur, date, organization), Organization (entite marque), Person (auteur, dirigeant), FAQPage (paires question-reponse). Les autres types Schema sont souvent produits par les CMS mais peu lus par les moteurs generatifs. **Le sameAs vers Wikidata est-il vraiment important ?** Oui, c'est un des signaux les plus forts. La propriete sameAs avec un identifiant Wikidata permet aux moteurs de desambiguiser une entite avec certitude. Pour une marque, ne pas avoir ce sameAs equivaut a se priver d'un grounding fiable. **Faut-il deployer FAQPage sur toutes les pages ?** Non, uniquement sur les pages qui contiennent reellement des paires question-reponse pertinentes. FAQPage abusivement deploye sur des sections marketing degrade la qualite percue de la marque par les moteurs et peut etre ignore. **Le balisage Schema remplace-t-il un bon contenu textuel ?** Non. Schema.org renforce un contenu deja bien ecrit, il ne le remplace pas. Une page sans contenu textuel solide mais avec un Schema parfait ne sera pas mieux citee. Le contenu vient en premier, le balisage en second. **Les nouveaux types Schema (sortie en 2025-2026) sont-ils consommes ?** Pas par les moteurs generatifs majeurs en avril 2026. Les nouveaux types prennent du temps a etre integres dans les pipelines. Les types stables depuis plusieurs annees (Article, Person, Organization) restent les plus surs. **Peut-on cumuler plusieurs schemas sur une meme page ?** Oui, et c'est meme recommande. Une page article peut cumuler Article (le contenu), Person (l'auteur), Organization (le site), FAQPage (la section FAQ). Les schemas se completent sans interferer. ### Sources - [Documentation Schema.org](https://schema.org) — Schema.org community - [Google Structured Data guidelines](https://developers.google.com/search/docs/appearance/structured-data) — Google Search Central --- ## AEO contre GEO: ou commence vraiment le terrain de jeu génératif - URL : https://geo-academy.fr/tactiques/tactique-06-aeo-vs-geo-frontiere - Description : Distinction opérationnelle entré Answer Engine Optimization et Generative Engine Optimization, avec conséquences pratiques pour les équipes éditoriales. - Auteur : solene-marchais - Publie le : 2025-12-15 - Tags : geo, aeo, definitions, strategie **TL;DR.** L'AEO (Answer Engine Optimization) optimise pour des reponses extraites textuellement (featured snippets, answer boxes, People Also Ask). Le GEO (Generative Engine Optimization) optimise pour des reponses synthetisees par un modele de langage. Les deux disciplines partagent des leviers, mais divergent sur la granularite et la nature du contenu cite. Beaucoup d'agences vendent du AEO en l'appelant GEO; la confusion n'est pas innocente. L'industrie SEO a tendance a confondre AEO et GEO. La confusion n'est pas innocente : beaucoup d'agences vendent du AEO en l'appelant GEO, ou inversement. Les deux disciplines existent. Elles se recouvrent partiellement. Mais elles ne demandent pas le même travail éditorial, comme l'illustre la [définition complète du GEO](/fondations/lecon-01-quest-ce-que-le-geo). Cet article pose la frontière et tire les conséquences pour une équipe qui veut investir au bon endroit. ## La définition pratique L'AEO, Answer Engine Optimization, est l'optimisation pour les moteurs qui produisent des réponses **extraites**. Les exemples canoniques sont les featured snippets de Google, les answer boxes, les listes "people also ask", les blocs de réponses sur Bing. Le moteur ne génère pas la réponse : il la prend, telle quelle ou presque, dans un passage sélectionné d'une page web. L'optimisation consiste a faire en sorte que ce soit votre page qui soit sélectionnée. Le GEO, Generative Engine Optimization, est l'optimisation pour les moteurs qui produisent des réponses **synthetisees**. Les exemples sont Google AI Mode, ChatGPT Search, Perplexity, Claude search. Le moteur génère une réponse nouvelle a partir de plusieurs sources, en citant ou non ces sources. L'optimisation consiste a être une de ces sources, et a être citée de manière visible. La différence de mecanisme produit une différence de leviers d'action. ## Tableau comparatif | Critere | AEO | GEO | |---------|-----|-----| | Type de réponse | Extraite | Générée | | Granularite cible | Passage de 40 a 60 mots | Page complète et chunks | | Nature du contenu | Réponse directe a une question simple | Couverture d'un eventail de sous-questions | | Marqueurs clés | Format question/réponse, listes structurées | Citation de sources, statistiques chiffrees, entites nommees | | Mesure | Position #0 dans Google | Taux de citation dans les réponses génératives | | Outils de suivi | SEMrush, Ahrefs (PAA tracking) | Otterly, Profound, AI Position Tracker | Le tableau simplifié. La réalité admet beaucoup de zones grises. Mais il met le doigt sur la divergence de fond : l'AEO optimise pour la sélection d'un passage extrait, le GEO optimise pour l'inclusion d'une page comme source de génération. ## Les leviers communs Avant de regarder les différences, il faut nommer ce que les deux disciplines partagent. Les pages bien classees en AEO ont généralement un avantage en GEO, et inversement. Trois leviers sont communs. D'abord, la **clarte de structure**. Une page qui répond directement a une question, avec un titre clair et une réponse extractible, est utile aux deux types de moteur. Le moteur extractif y trouve son passage. Le moteur génératif y trouve un chunk facile a intégrer. Ensuite, la **fiabilité des sources**. Un site qui cité bien ses sources, qui présente ses auteurs, qui maintient ses pages a jour, est valorise dans les deux disciplines. Le E-E-A-T classique de Google est un socle commun. Enfin, la **qualité de l'index**. Un site bien crawle, bien rendu, sans problème technique majeur, sert les deux objectifs. Aucune optimisation éditoriale ne compense un site bloque ou mal indexable. ## Les leviers spécifiques a l'AEO L'AEO a ses propres leviers, qui ne sont pas tous transferables au GEO. Le **format question-réponse direct**. Pour devenir un featured snippet, une page doit répondre a la question dans les premières lignes, dans une formulation qui peut être extraite telle quelle. Une réponse de quarante a soixante mots, avec la question reformulee dans le titre H2 et la réponse en paragraphe immédiat, est le format canonique. Le **balisage Schema.org FAQ et HowTo**, complémentaire du [Schema.org pour LLM](/tactiques/tactique-07-schema-org-llm). Ces deux types de schema marchent bien pour l'AEO. Ils donnent au moteur un signal explicite que la page contient des paires question-réponse ou des étapes ordonnees, qui sont les deux formats privilegies pour l'extraction. L'**optimisation pour les listes**. Les featured snippets de type liste (étapes, ingredients, criteres) extraient une enumeration de la page. Une page bien structurée avec des listes courtes et homogenes augmente ses chances d'être sélectionnée. Ces leviers fonctionnent pour l'AEO mais sont peu transferables au GEO. Une page sur-optimisee pour les featured snippets, avec une réponse courte au-dessus du pli et peu de contenu en-dessous, est typiquement faible en GEO, parce qu'elle n'offre pas la profondeur nécessaire au moteur génératif. ## Les leviers spécifiques au GEO A l'inverse, le GEO impose des leviers que l'AEO ignore largement. La **densite de citation**, mesurée par notre [étude maison sur la citation density](/tactiques/tactique-11-citation-density-etude). Un article cité par Perplexity contient typiquement plusieurs sources externes mentionnées explicitement, plusieurs chiffres source, plusieurs noms propres. Cette densite n'apporte rien au featured snippet. Elle est essentielle au taux de citation générative. La **couverture multi-aspect**. Le query fan-out impose qu'une page bien positionnée en GEO couvre plusieurs sous-aspects de la question principale. L'AEO ne demande qu'une réponse a une seule question. Une page AEO efficace peut être courte. Une page GEO efficace est rarement courte. L'**autorité d'entite**. Le moteur génératif privilegie les sources reconnues comme entites légitimes sur le sujet (auteur identifié, marque établie, présence Wikidata). L'AEO est moins exigeant : un site avec un domain rating moyen mais une bonne structure peut decrocher des featured snippets sans construire de réputation forte. ## Le piège du transfert pur Beaucoup d'équipes commettent l'erreur de prendre une stratégie AEO existante et de l'appliquer telle quelle au GEO. Cela donne des résultats mediocres pour deux raisons. Première raison, l'AEO produit des pages courtes et focalisees sur une seule question. Le GEO récompense les pages denses et multi-aspects. Transférer la stratégie AEO consiste a publier mille petites pages question-réponse, qui marchent mal en GEO parce qu'elles n'ont pas assez de matière pour être des sources serieuses. Deuxième raison, l'AEO récompense la formulation directe et simplifiée. Le GEO récompense la formulation argumentee, sourcee, datee. Transférer la formulation AEO produit du contenu plat, sans chiffres, sans citations, qui passé sous les radars des moteurs génératifs. ## Comment investir intelligemment Pour une équipe qui se lance, deux scénarios coexistent. Si la marque vend a un public qui utilisé principalement Google search en mode classique, l'AEO resté prioritaire. Les featured snippets, les People Also Ask, les Knowledge Panels generent encore l'essentiel du trafic visible en France en avril 2026. Si la marque vend a un public technique ou a forte intensité de recherche d'information (B2B SaaS, services professionnels, recherche academique), le GEO devient prioritaire. Sur ces verticales, Perplexity et ChatGPT Search ont des taux d'usage tels qu'une présence faible y a un cout d'opportunité mesurable. Dans tous les cas, il est rare qu'on investisse exclusivement dans l'un ou l'autre. Le bon équilibre dépend du mix d'audience, et il évolue. Solene Marchais documente plusieurs profils types dans la rubrique méthodologie. La tendance générale, observable depuis dix-huit mois, est un transfert progressif d'investissement de l'AEO vers le GEO sur les segments tech, financier et B2B services. Le mouvement est plus lent sur les segments grand public, ou Google search classique resté dominant. ## Ne pas confondre la frontière et l'horizon Pour finir, un point philosophique. AEO et GEO ne sont pas deux disciplines séparées pour toujours. La frontière est mouvante. Les featured snippets de Google sont en train de se transformer en blocs AI Overviews, qui sont des réponses générées, non extraites. La même question utilisateur peut renvoyer a un featured snippet aujourd'hui et a un AI Overview demain, selon la version de l'expérience search. Cette évolution suggere que sur le moyen terme (deux a quatre ans), l'AEO va se faire absorber par le GEO. Pas immédiatement, et pas sur tous les types de requête. Mais la direction est claire. Une équipe qui investit aujourd'hui dans le GEO prépare l'horizon, pas seulement la frontière actuelle. Une équipe qui investit exclusivement dans l'AEO prépare a continuer une discipline qui se réduit lentement. ### FAQ **Quelle est la difference entre AEO et GEO ?** L'AEO vise les moteurs qui extraient une reponse telle quelle d'une page (featured snippet Google, answer box Bing). Le GEO vise les moteurs qui synthetisent une reponse a partir de plusieurs sources (Perplexity, ChatGPT Search, AI Overviews). **Quels sont les leviers communs aux deux ?** Qualite editoriale, structure H2-H3, balisage Schema.org, autorite du domaine, E-E-A-T. Sur ces leviers, le travail est identique. Les divergences apparaissent sur la granularite editoriale et la nature des questions traitees. **Faut-il choisir entre AEO et GEO ?** Non, les deux sont complementaires. Mais selon les budgets, on peut prioriser. L'AEO donne des resultats plus rapides et tangibles (apparaitre dans un featured snippet). Le GEO construit une presence durable dans les reponses synthetiques. **L'AEO est-il en train de disparaitre ?** Non, mais il evolue. Les featured snippets restent presents, les People Also Ask aussi. Sur Google, AI Overviews et featured snippets coexistent. L'AEO reste un terrain valable, mais il ne remplace pas le GEO et reciproquement. **Quels formats fonctionnent en AEO et pas en GEO ?** Les formats tres concis et structures (definition en une phrase, liste numerotee courte) marchent bien en AEO. En GEO, la synthese du modele preferes des contenus plus narratifs et bien chunkes, qui supportent la reformulation. **Une agence peut-elle vendre du AEO en l'appelant GEO ?** Oui, et c'est un risque commercial reel. La confusion existe et certaines offres GEO se limitent a du AEO classique. Demander explicitement la liste des moteurs cibles (Perplexity, ChatGPT Search vs Google featured snippets) clarifie le perimetre. ### Sources - [Search Generative Experience, premier rapport Yext](https://www.yext.com/insights) — Yext, état du marché 2025 - [Answer Engine Optimization, définition originale](https://moz.com/blog) — Moz, contributions multiples 2019-2024 --- ## Anatomie du query fan-out de Google AI Mode - URL : https://geo-academy.fr/tactiques/tactique-01-anatomie-query-fan-out - Description : Decomposition technique du mecanisme de query fan-out utilisé par Google AI Mode, avec implications concrètes pour la production éditoriale. - Auteur : camille-lefebvre - Publie le : 2025-12-08 - Tags : geo, fan-out, ai-mode, google **TL;DR.** Le query fan-out de Google AI Mode est une operation de decomposition combinatoire qui transforme une question utilisateur en arbre de 5 a 30 sous-requetes paralleles, chacune envoyee au moteur de recherche classique avant agregation par un modele de langage. Mike King a publie en 2024 le simulateur Qforia qui permet d'observer ce mecanisme. Optimiser pour AI Mode revient a couvrir un eventail de sous-questions, pas une seule requete cible. Le query fan-out est probablement le mecanisme le plus mal compris de Google AI Mode. La plupart des analyses publiques le decrivent comme une simple reformulation de requête. C'est faux. Le fan-out est une opération de decomposition combinatoire qui transforme une question utilisateur en arbre de sous-questions parallèles, chacune envoyee au moteur de recherche classique avant agregation par un [modèle de langage selon le pipeline RAG](/fondations/lecon-04-comment-un-llm-cite). ## Le principe operatoire Quand un utilisateur tape "comment choisir un velo électrique pour ville pavee budget mille cinq cents euros", Google ne traite pas cette chaîne comme une requête unique. Le système la decompose en plusieurs requêtes filles. Voici un exemple plausible de decomposition observee sur le simulateur Qforia de Mike King : | Sous-requête générée | Type | |----------------------|------| | "meilleur velo électrique ville 2025" | informationnelle large | | "velo électrique pour route pavee" | contrainte technique | | "velo électrique 1500 euros comparatif" | contrainte budget | | "couple moteur recommande terrain irregulier" | technique fine | | "autonomie batterie velo électrique urbain" | sous-aspect | | "marques velo électrique fiabilité avis" | réputation | | "garantie batterie velo électrique" | après-vente | Chacune de ces sous-requêtes part en parallèle vers l'index Google classique. Les résultats reviennent, sont filtres, ranges, puis fournis comme contexte de génération au modèle Gemini qui produit la réponse synthétique. L'utilisateur voit une seule réponse. Le moteur, lui, a tire entre cinq et trente requêtes derrière le rideau. ## Pourquoi c'est important pour la production éditoriale La conséquence est radicale. Si un site produit un article massif qui cible la requête unique "comment choisir un velo électrique pour ville pavee budget mille cinq cents euros", il optimise pour une requête qui n'existe pas dans le moteur. Le fan-out la dissout immédiatement en sept ou dix sous-questions. La page sera evaluee morceau par morceau, chunk par chunk, sur chacune de ces sous-requêtes. Le travail éditorial change donc de nature. Au lieu d'écrire un article qui répond bien a une question, il faut écrire un article qui couvre proprement un eventail de sous-questions, chacune traitable indépendamment. La granularite descend au niveau du paragraphe, suivant les principes du [structured chunking](/tactiques/tactique-08-structured-chunking). ## Ce que dit le brevet Le brevet Google US20240289407A1, dépose en mars 2023 et publié en aout 2024, décrit explicitement le mecanisme. La revendication 1 mentionne la génération de "multiple synthetic queries" a partir d'une "primary query", chacune transmise a un "search engine subsystem" pour rapatrier des passages, avant que le modèle ne produise sa réponse. La revendication 7 ajoute un détail intéressant : le système privilegie les passages qui "comportent des entites nommees ou des chiffres correspondant a la requête synthétique". Autrement dit, un paragraphe sec, factuel, denommant des [entités déclarées sur Wikidata](/tactiques/tactique-13-entites-wikidata) a une probabilité plus élevée d'être sélectionné comme contexte. ## La typologie des sous-requêtes A partir de l'observation de Qforia et de tests internes menes en mars 2026 sur une vingtaine de requêtes françaises, on peut classer les sous-requêtes générées en six familles : D'abord la **reformulation directe**, ou le moteur reecrit la requête dans un français plus standard. Ensuite la **decomposition par contrainte** qui isolé chaque contrainte de la requête principale. Puis la **decomposition par sous-aspect**, qui détaillé les composantes techniques. Suit la **requête comparative**, qui transforme une question fermée en comparatif. La **requête de réputation** vérifie la fiabilité ou les avis. Enfin la **requête d'après-vente** anticipe les questions de garantie ou de service. Les six familles ne sont pas mobilisees a chaque fois. Sur une requête simple, le moteur peut se contenter de deux ou trois sous-requêtes. Sur une requête complexe a contraintes multiples, on observe des decompositions allant jusqu'a vingt-huit sous-questions parallèles. ## Implications pour le maillage interne Le query fan-out a une conséquence inattendue sur le maillage interne. Comme chaque sous-requête part vers l'index classique, et comme l'index classique ranke des pages indépendamment, un site qui couvre proprement chaque sous-aspect via une page dédiée a une probabilité plus élevée d'être cité plusieurs fois dans la réponse synthétique finale. L'argument est contre-intuitif pour quiconque sort du SEO classique. Dans le SEO classique, on consolide. On évite les pages trop proches qui se cannibalisent. Dans une logique fan-out, l'eclatement en pages courtes peut au contraire fonctionner, parce que chaque page répond proprement a une sous-question précise. La cannibalisation n'est plus un risque, parce que chaque page cible une sous-requête fille distincte. C'est une reorganisation profonde du raisonnement éditorial. [Camille Lefebvre](/auteurs/camille-lefebvre) a documente ce basculement dans plusieurs audits de fevrier 2026 : sur un panel de huit sites e-commerce français, ceux qui avaient eclate leur contenu en pages thématiques fines ont vu leur taux de citation dans AI Mode augmenter de l'ordre de quarante a soixante pour cent par rapport aux sites consolides, mesure cohérente avec le [fan-out coverage index](/methodologie/fan-out-coverage-index). Le panel est petit, la méthodologie demande a être rejouee, mais l'effet est trop net pour être fortuit. ## Le piège de la sur-optimisation Il existe un risque inverse : éclater le contenu en pages tellement courtes que chacune devient pauvre. Une page qui ne dit qu'une chose et qui le dit en cent cinquante mots ne sera sélectionnée par aucune sous-requête, parce qu'elle ne contient pas assez de signal. Le bon équilibre tourne autour de huit cents a mille deux cents mots par page, avec une seule question principale traitée en profondeur et trois ou quatre sous-aspects secondaires. Mike King insiste sur ce point dans ses conferences SearchLove de 2024 et 2025 : la granularite optimale n'est pas la plus fine. C'est celle qui permet a chaque page de couvrir une question de fond avec ses ramifications immédiates, sans deborder. ## Comment observer le fan-out en pratique Pour observer le fan-out en pratique, trois méthodes coexistent. Le simulateur Qforia de Mike King donné une approximation publique gratuite. Les API officielles Google ne renvoient pas les sous-requêtes générées, mais l'extension Chrome de iPullRank capture les requêtes XHR sortantes lors d'une session AI Mode et permet d'observer une partie du trafic. Enfin, sur Bing Copilot, l'inspection réseau du navigateur montré les sous-requêtes de manière plus directe, ce qui donné un proxy utile pour comprendre le mecanisme. La donnée n'est pas parfaite. Aucun de ces outils ne donne acces aux logs internes de Google. Mais les patterns sont suffisamment stables pour qu'une équipe éditoriale puisse construire un brief a partir de la decomposition observee, et y caler la structure d'une page. ## Le cas français Une remarque pour finir. Sur le marché français, le fan-out semble produire des decompositions un peu moins riches qu'en anglais. Sur la requête americaine "best electric bike under fifteen hundred dollars commuting", Qforia génère typiquement quatorze a dix-huit sous-requêtes. Sur l'équivalent français, on tombe plus souvent autour de huit a douze. La différence vient probablement du volume d'entraînement et de la couverture de l'index français. Cet écart se resorbe progressivement, mais il resté mesurable au moment de la rédaction de cet article, en avril 2026. La conséquence pratique : les sites français ont une fenêtre. Tant que la decomposition resté plus pauvre, une page bien structurée couvrira mecaniquement une plus grande part des sous-requêtes générées. C'est un avantage temporaire. Il vaut la peine de l'exploiter avant que la parite anglaise rattrape le terrain. ### FAQ **Qu'est-ce que le query fan-out de Google AI Mode ?** Une operation qui decompose une question utilisateur en 5 a 30 sous-requetes paralleles, executees en arriere-plan. Le moteur classique de Google traite chaque sous-requete, et un modele de langage agrege les resultats pour produire la reponse synthetique. **Combien de sous-requetes le fan-out genere-t-il ?** Generalement entre 5 et 30 selon la complexite de la requete utilisateur. Les requetes simples (Qui est X) produisent moins de fan-out. Les requetes complexes (comment choisir X selon Y, Z) generent davantage de sous-requetes. **Comment observer le fan-out d'une requete ?** Le simulateur Qforia, publie par Mike King et iPullRank en 2024, permet de saisir une requete et de voir un fan-out plausible. C'est la reference accessible pour comprendre le mecanisme. Le brevet Google US20240289407A1 documente la theorie. **Comment optimiser une page pour le fan-out ?** Couvrir un eventail de sous-questions plutot qu'une requete unique. Inclure les contraintes techniques (budget, contexte d'usage), les alternatives, les cas d'usage et les comparatifs. Une page complete a meilleure couverture qu'une page focalisee sur une seule formulation. **Le fan-out existe-t-il sur Perplexity ou ChatGPT Search ?** Le terme fan-out est specifique a Google AI Mode. Perplexity et ChatGPT Search ont des mecanismes proches (decomposition multi-requetes) mais avec leurs propres implementations. Les principes d'optimisation (couvrir l'eventail) sont similaires. **Quel est le piege classique d'optimisation fan-out ?** Empiler des questions sans hierarchie ni reponse claire. Le bon contenu fan-out a une structure narrative, traite chaque sous-question avec autonomie (chunk autonome) et ne se contente pas de lister. ### Sources - [Qforia, simulateur de query fan-out](https://ipullrank.com/qforia) — Mike King, iPullRank - [Google I/O 2024, présentation AI Overviews](https://blog.google/products/search/générative-ai-google-search-may-2024/) — Google - [Brevet Google US20240289407A1](https://patents.google.com/patent/US20240289407A1) — Google LLC --- ## Brand Context Optimization: la méthode Olaf Kopp pour ancrer une marque - URL : https://geo-academy.fr/tactiques/tactique-04-brand-context-optimization - Description : Lecture détaillée du Brand Context Optimization theorise par Olaf Kopp, avec mise en oeuvre concrète pour une marque B2B française. - Auteur : solene-marchais - Publie le : 2025-12-02 - Tags : geo, entity-seo, brand, olaf-kopp **TL;DR.** Le Brand Context Optimization, theorise par Olaf Kopp en 2024 sur kopp-online-marketing.com, raisonne en termes d'entite et de contexte plutot qu'en mots-cles isoles. Une marque pour un moteur generatif n'est pas une chaine de caracteres mais un noeud dans un graphe de connaissance, defini par ses attributs et ses relations. La methode repose sur la cooccurrence entites-attributs et la presence multi-sources, avec le travail editorial qui precede le travail structure. Le Brand Context Optimization, exposé par Olaf Kopp sur kopp-online-marketing.com en 2024, est une des rares méthodologies europeennes solides du domaine GEO. La littérature anglo-saxonne tend a privilegier les optimisations textuelles isolees (densite de citation, structure de chunk). Olaf Kopp, lui, raisonne en termes d'entite et de contexte, dans la lignee du semantic SEO qu'il defend depuis plus de dix ans. Cet article reprend la méthode et la traduit pour une marque française. ## L'idée centrale Une marque, pour un [moteur génératif](/fondations/lecon-02-cartographie-moteurs-generatifs), n'est pas une chaîne de caracteres. C'est une entite, c'est-a-dire un nœud dans un graphe de connaissance. L'entite est définie par ses attributs (ses dirigeants, ses produits, son secteur, sa localisation) et par ses relations a d'autres entites (concurrents, partenaires, clients, lieux). Pour qu'un moteur génératif cité correctement une marque dans une réponse, il faut que la marque existe comme entite reconnue, et que les attributs et relations evoques dans la requête utilisateur soient effectivement attaches a l'entite dans le graphe de connaissance du moteur. Le Brand Context Optimization vise a construire activement ce contexte d'entite. Il s'agit de fournir au moteur un volume et une variete suffisants de signaux pour que la marque devienne une entite reconnue, avec ses attributs propres, présentée de manière coherente sur une variete de sources. ## Les quatre dimensions du contexte Olaf Kopp distingue quatre dimensions de travail. La première est la **dimension textuelle**, qui couvre la manière dont la marque est nommée et décrite dans le texte des pages, internes et externes. La deuxième est la **dimension structurée**, qui correspond au [balisage Schema.org pour LLM](/tactiques/tactique-07-schema-org-llm) sur les pages canoniques de la marque. La troisième est la **dimension graphe**, qui concerne la [présence dans Wikidata](/tactiques/tactique-13-entites-wikidata), DBpedia, Google Knowledge Graph. La quatrième est la **dimension digitale étendue**, qui couvre l'ensemble des mentions tierces (presse, annuaires, podcasts, conferences). Les quatre dimensions ne sont pas équivalentes. La dimension textuelle est le socle. Les trois autres en derivent ou la complementent. Une équipe qui se precipite sur le balisage Schema.org sans avoir d'abord fait le travail de description textuelle propre construit du structure sur du vide. ## La dimension textuelle, en pratique Travailler la dimension textuelle commence par un audit de cooccurrences. Il s'agit d'identifier, pour la marque cible, les termes qui apparaissent régulièrement aux abords du nom de marque dans le corpus existant. Cet audit se mene en deux temps. D'abord, sur le site de la marque elle-même. Quels sont les attributs effectivement enonces sur la page "qui sommes-nous", la page produits, les fiches dirigeants ? La réalité est souvent decevante. Beaucoup de marques B2B françaises ont des pages institutionnelles vagues, qui parlent de "valeurs" et de "passion" sans nommer aucun attribut vérifiable. Ensuite, sur les sources tierces. Quels sont les attributs evoques dans les articles de presse, les fiches d'annuaires, les profils LinkedIn des dirigeants, les communiques de partenariat ? Cette deuxième partie de l'audit est essentielle, parce que c'est elle qui donné la mesure du contexte construit a l'extérieur du domaine contrôle par la marque. Le delta entre les deux audits est revelateur. Une marque dont la presse parle de "solution Saas française pour la gestion comptable des PME", mais qui se décrit elle-même comme "partenaire de votre transformation digitale", a un problème de coherence. Le moteur génératif rencontre deux descriptions inegales de la même entite. Il choisira la plus claire, qui est rarement celle de la marque. ## Le travail de reformulation La première action concrète consiste a reformuler la description de la marque sur les pages canoniques (page d'accueil, page "a propos", page produit principale). La reformulation suit une règle simple : un attribut vérifiable par phrase, dans un ordre stable. Voici un exemple appliquée a une marque fictive de logiciel comptable : > Cabinex est un éditeur de logiciel SaaS fondé a Lyon en 2018 par Marie Dupont et Thomas Verdier. La société propose une plateforme de comptabilite en ligne destinee aux PME françaises de moins de cinquante salaries. Cabinex compte deux mille cinq cents clients en mars 2026 et emploie quarante-deux personnes. Le siège social est a Lyon, dans le 7e arrondissement. Le paragraphe ne dit rien de "passionné" ou de "innovant". Il enonce sept attributs vérifiables : nature (éditeur SaaS), localisation (Lyon), date de création (2018), fondateurs (deux noms), cible (PME françaises moins de cinquante salaries), nombre de clients, nombre d'employes, adresse précise. Cette description fonctionne parce que chaque attribut est extractible. Le moteur génératif qui reçoit cette page peut detacher chaque fait et le vérifier indépendamment. C'est exactement ce que demandent les revendications du brevet Google US20240289407A1 sur les passages preferes, en lien avec le mécanisme de [query fan-out](/tactiques/tactique-01-anatomie-query-fan-out). ## L'effet ricochet sur les sources tierces Une fois la description canonique propre, le travail se deplace sur les sources tierces. L'objectif est que la presse, les annuaires professionnels, les profils LinkedIn et les sources Wikipedia (si pertinent) reprennent la même description, avec les mêmes attributs. Le mecanisme tient a la nature même des moteurs génératifs. Le grounding ne se fait pas sur une seule source. Il croise plusieurs sources pour produire une réponse jugee fiable. Quand cinq sources différentes donnent la même description coherente d'une marque, le moteur traite cette description comme verifiee. Quand cinq sources donnent cinq descriptions divergentes, le moteur choisit la plus generique ou refuse de citer. L'enjeu pratique est donc de coordonner les fiches presse, les profils dirigeants sur LinkedIn, les fiches Crunchbase, les annuaires professionnels, autour d'une description maître identique. Olaf Kopp parle d'**entity attribute consistency**. Le travail est moins glamour qu'une refonte éditoriale, mais son effet sur le grounding est mesurable. ## La place de Schema.org Schema.org intervient ensuite, pas avant. Une fois la description textuelle propre et coherente sur le site et les sources tierces, le balisage structure rend l'extraction encore plus fiable pour les moteurs. Pour une marque, les types Schema utiles sont Organization, LocalBusiness le cas echeant, FoundingDate, Founder (en lien vers Person), NumberOfEmployees, et sameAs vers Wikidata, LinkedIn, Crunchbase. Le sameAs est particulièrement important parce qu'il établit explicitement la liaison entré la page de la marque et l'entite dans le graphe de connaissance. Olaf Kopp insiste sur ce point : Schema.org sans entree Wikidata correspondante laisse une partie du potentiel inexploitee. Inversement, une entree Wikidata sans Schema.org sur le site officiel n'est pas optimale non plus. Les deux se renforcent mutuellement. ## La difficulte spécifique du français Le marché français a une particularite : Wikipedia français est plus restrictif que Wikipedia anglais sur l'admissibilite des marques. Beaucoup de marques B2B françaises de taille moyenne ont une fiche supprimee ou jamais crée. Cela limite le contexte construit dans la dimension graphe. Wikidata en revanche est plus accessible. La création d'une entite Wikidata pour une marque B2B sérieuse, avec ses attributs principaux et ses sources, est tout a fait réaliste. Solene Marchais détaillé cette procédure dans un autre article de la rubrique. La méthode demande quelques heures de travail bien fait, et produit un effet de fond durable. ## La temporalite du travail Le Brand Context Optimization n'est pas un sprint. C'est un travail de longue haleine, dont les effets se mesurent sur six a douze mois. La marque qui reformule sa description canonique en mars ne verra pas l'effet sur les citations Perplexity en avril. Le grounding est conservateur. Les modèles ont besoin de croiser plusieurs cycles de crawl avec une description stable pour que la nouvelle version remplace l'ancienne dans leur représentation interne. Cette lenteur est un problème commercial pour les agences qui doivent montrer des résultats trimestriels. Elle est aussi une opportunité pour les marques qui acceptent de jouer le jeu sur le temps long. Une marque qui consolide sa description sur trois trimestres construit un avantage difficilement rattrapable par un concurrent qui n'a pas fait le travail. L'apport principal d'Olaf Kopp tient a cette inscription dans la duree. Il ne propose pas un hack ponctuel, il propose un cadre méthodologique. Le cadre est exigeant. Il est aussi le plus solide parmi ceux qui circulent en europe sur le sujet du GEO en avril 2026. ### FAQ **Qu'est-ce que le Brand Context Optimization ?** Une methode publiee par Olaf Kopp en 2024 qui consiste a optimiser une marque comme une entite (noeud dans un graphe de connaissance) plutot que comme une chaine de caracteres. La methode repose sur la cooccurrence entites-attributs et la presence multi-sources. **Qui est Olaf Kopp ?** Un consultant SEO allemand de l'agence Aufgesang Online Marketing, theoricien du semantic SEO depuis plus de dix ans, qui a publie le concept de Brand Context Optimization sur son site kopp-online-marketing.com. **Quelle est la difference entre BCO et SEO classique ?** Le SEO classique optimise pour des mots-cles. Le BCO optimise pour des entites et leurs attributs. Une marque doit etre associee a ses dirigeants, ses produits, son secteur, sa localisation, ses concurrents et ses partenaires dans le graphe. **Faut-il commencer par le balisage Schema.org ?** Non. Le BCO insiste: le travail editorial precede le travail structure. Une page doit d'abord nommer en clair les attributs et relations de la marque, puis le balisage vient renforcer ce qui est deja dit en texte. Schema sans contenu textuel ne sert pas. **Combien de temps pour appliquer le BCO sur une marque B2B ?** L'audit initial prend une semaine pour cartographier les entites et attributs cles. La production editoriale prend 3 a 6 mois pour densifier la documentation textuelle des entites. Le balisage Schema vient en parallele, environ 2 a 4 semaines. **Le BCO fonctionne-t-il pour les marques B2C ?** Oui, mais avec des entites differentes (gammes de produits, plateformes de distribution, ambassadeurs). La methode reste identique. La specificite B2C tient au volume de mentions necessaires pour ancrer l'entite (plus de presse, plus de mentions reseaux sociaux). ### Sources - [Brand Context Optimization, article fondateur](https://www.kopp-online-marketing.com/brand-context-optimization-a-new-approach-to-modern-search) — Olaf Kopp, Aufgesang Online Marketing - [Semantic SEO, conferences SEOkomm](https://www.kopp-online-marketing.com) — Olaf Kopp --- ## llms.txt: lecture critique d'une proposition technique - URL : https://geo-academy.fr/tactiques/tactique-03-llms-txt-protocole-decryptage - Description : Analyse technique du fichier llms.txt propose par Jeremy Howard, avec un point sur l'adoption mesuree par BuiltWith et les limites du protocole. - Auteur : camille-lefebvre - Publie le : 2025-11-25 - Tags : geo, llms-txt, protocole, standards **TL;DR.** llms.txt a ete propose par Jeremy Howard en septembre 2024 sur llmstxt.org, sans validation par un organisme de normalisation. BuiltWith mesure une adoption autour de quelques milliers de domaines en avril 2026. Aucun moteur generatif majeur n'a confirme officiellement l'utiliser pour le grounding. La proposition est interessante techniquement, mais la presenter comme un standard equivalent a robots.txt est en grande partie trompeur. llms.txt a fait beaucoup de bruit en 2024 et 2025. La proposition a souvent été présentée comme un standard équivalent a robots.txt pour les modèles de langage, comme l'analyse en profondeur la [leçon sur llms.txt en 2026](/fondations/lecon-05-llms-txt-utile-ou-pas). Le parallèle est seduisant. Il est aussi en grande partie trompeur. Cet article fait le point sur ce que dit réellement la spécification, ce qui est mesure de son adoption, et ce qu'on peut raisonnablement en attendre en avril 2026. ## La proposition initiale Jeremy Howard, co-fondateur de fast.ai, a publié la proposition llms.txt en septembre 2024 sur le site llmstxt.org. Le principe est simple. Un fichier place a la racine d'un site, au format markdown, fournit un guide de lecture du site a destination des modèles de langage. Il liste les ressources principales, les pages canoniques, les sections importantes, sous une syntaxe normalisee. Le format prévoit un titre H1 obligatoire pour le nom du site, un blockquote pour la description courte, des sections H2 qui regroupent des liens markdown vers les pages clés. Une variante optionnelle, llms-full.txt, intègre directement le contenu textuel des pages au lieu de simples liens, pour permettre a un modèle d'avoir l'intégralité du corpus accessible sans crawl. L'analogie avec robots.txt est explicite dans la proposition. Robots.txt indique aux crawlers ce qu'ils peuvent ou ne peuvent pas indexer. Llms.txt indique aux modèles de langage ce qu'ils devraient prioritairement lire pour comprendre un site. La symétrie est élégante. Elle est aussi son principal defaut. ## Le problème de fond : aucune obligation Robots.txt fonctionne parce que les crawlers majeurs ont fait le choix de le respecter. Ce n'est pas une obligation legale, c'est une convention adoptee par Google, Bing, et la plupart des acteurs sérieux. La force du standard tient a cette adhesion volontaire, qui est elle-même renforcee par la pression de la communaute web. Llms.txt n'a pas cette adhesion. En avril 2026, aucun moteur génératif majeur (Google, OpenAI, Anthropic, Perplexity) n'a publiquement confirme prendre en compte le fichier llms.txt dans son comportement de grounding. Plusieurs ont dit explicitement qu'ils ne le lisaient pas, ou qu'ils continuaient a se reposer sur leur crawl classique. Le fichier existe donc, mais il n'a pas de destinataire actif. C'est une lettre adressee a personne en particulier, qui peut être lue ou ignorée. La majorité des moteurs choisit l'ignorer. ## Ce que mesure BuiltWith BuiltWith maintient un compteur public d'adoption du fichier llms.txt. En avril 2026, le tracker recense quelques milliers de domaines qui hebergent un fichier valide. Le chiffre semble modeste rapporte aux dizaines de millions de sites actifs sur le web. Mais il est intéressant a regarder dans sa composition. Les domaines qui adoptent llms.txt se repartissent grosso modo en trois catégories. La première regroupe les outils de développement (Anthropic, FastHTML, Cursor) qui ont besoin que les modèles puissent générer du code utilisant leurs API a partir d'une documentation a jour. La deuxième regroupe les sites de documentation technique de gros éditeurs SaaS. La troisième, plus heteroclite, regroupe des sites éditoriaux et e-commerce qui ont adopte le standard de manière proactive en pariant sur son adoption future. Le profil est revelateur. Llms.txt a une utilité réelle dans un cas précis : permettre a un développeur d'instruire son agent IA local en l'orientant vers la documentation officielle a jour. Hors de ce cas, l'utilité n'est pas demontree. ## La syntaxe en pratique Voici un exemple minimal de fichier llms.txt valide : ``` # Mon Site > Magazine francophone consacre au generative engine optimization. ## Articles fondamentaux - [Definir le GEO](/fondations/lecon-01-quest-ce-que-le-geo): introduction au domaine - [AI Mode de Google](/fondations/lecon-04-comment-un-llm-cite): synthese du moteur AI Mode ## Etudes de cas - [Une ressource hub vue par Perplexity](/etudes-de-cas/qonto): demarche ## Outils - [Inventaire des outils GEO](/outils): selection commentee ``` Le format est volontairement minimal. Pas de schema complexe, pas de balises etendues, pas de metadata sophistiquee. C'est de la prose markdown structurée, lisible par un humain et par un modèle. La variante llms-full.txt ajoute le contenu textuel complet de chaque page après le titre H2 correspondant. Le fichier devient énorme sur un site de taille moyenne (plusieurs megaoctets), ce qui pose un problème de bande passante a chaque acces. La proposition resté donc plus théorique que pratique sur cette variante. ## La position des moteurs Examinons ce qu'on sait des positions officielles, en avril 2026. OpenAI n'a pas pris position publique sur llms.txt. Ses bots (GPTBot, OAI-SearchBot) crawlent les sites en suivant robots.txt classique, comme détaillé dans notre [analyse du comportement des bots IA](/tactiques/tactique-14-bots-ia-comportement). Aucune indication que llms.txt joue un rôle. Google a indique a plusieurs reprises que son moteur de recherche, y compris AI Mode, ne s'appuie pas sur llms.txt. John Mueller a confirme cette position sur les réseaux sociaux a plusieurs reprises depuis fin 2024. Anthropic est plus intéressant. La documentation officielle de Claude indique que les modèles Claude peuvent prendre en compte llms.txt quand ils sont invoques par un agent qui les leur fournit explicitement (par exemple via l'API ou un outil développeur). Anthropic publié d'ailleurs son propre llms.txt sur docs.anthropic.com. Mais cela concerne l'usage agentique de Claude, pas le grounding du moteur Claude search. Perplexity n'a pas pris position publique. Les tests menes en interne par plusieurs équipes ne montrent pas d'effet mesurable de la présence d'un fichier llms.txt sur le taux de citation. ## Faut-il publier un llms.txt ? La question mérite une réponse nuancee. Le cout de publication d'un llms.txt est très faible : un fichier markdown statique a la racine. Le risque de cout est nul. Le benefice attendu est lui-même proche de zéro, mais non strictement nul, dans deux cas. Le premier cas est celui d'un site de documentation technique, surtout si l'objectif est que des agents IA (Cursor, Copilot, Claude Code) utilisent la documentation pour générer du code. Dans ce cas, llms.txt est utile, parce que les agents le consultent activement quand on les configure pour le faire. Le second cas est un pari prospectif. Si llms.txt finit par être adopte comme standard de fait, les sites qui l'auront mis en place tôt beneficieront d'une avance, en complément du [balisage Schema.org pour LLM](/tactiques/tactique-07-schema-org-llm). Le pari est faible (probabilité de succès du standard difficile a estimer), mais le cout d'engagement est lui aussi faible. Pour la plupart des sites éditoriaux et commerciaux français, en avril 2026, la décision rationnelle est de publier un llms.txt simple, de ne pas y consacrer plus d'une heure de travail, et de ne pas en attendre d'effet mesurable a court terme. Tout positionnement plus enthousiaste relève des [erreurs débutant en GEO](/fondations/lecon-09-erreurs-debutant). ## Le contraste avec robots.txt Pour conclure, il est utile de revenir a la comparaison initiale. Robots.txt a mis plusieurs années a devenir un standard de fait. Le fichier a été proposé en 1994 par Martijn Koster. La première RFC (RFC 9309) ne date que de 2022. Entré les deux, ce sont presque trente ans de pratique avant la formalisation. Llms.txt a été proposé en 2024. L'attendre adopte universellement en deux ans est probablement deraisonnable. La question est plutôt : la pression sera-t-elle suffisante pour qu'il devienne, dans cinq ou dix ans, ce que robots.txt est aujourd'hui ? La réponse dépend moins de la qualité technique de la proposition que de l'intérêt des moteurs génératifs a se laisser guider par les sites qu'ils crawlent. Cet intérêt n'est pas évident. Les moteurs préfèrent rester libres de leurs choix de grounding. ### FAQ **Qui a propose llms.txt ?** Jeremy Howard, co-fondateur de fast.ai, en septembre 2024 sur llmstxt.org. La proposition n'a pas ete validee par un organisme de normalisation (W3C, IETF), elle reste une initiative individuelle adoptee par une communaute. **Quelle est la difference entre llms.txt et llms-full.txt ?** llms.txt liste les ressources principales avec des liens. llms-full.txt integre directement le contenu textuel des pages au lieu de simples liens, pour permettre a un modele d'avoir l'integralite du corpus accessible sans crawl. **Combien de sites ont adopte llms.txt en 2026 ?** BuiltWith mesure quelques milliers de domaines en avril 2026, ce qui reste marginal a l'echelle du web. L'adoption se concentre sur les sites tech et les pionniers de la communaute IA. **Les moteurs IA respectent-ils llms.txt ?** Aucun moteur generatif majeur (ChatGPT, Perplexity, AI Overviews, Gemini, Claude, Copilot) n'a confirme officiellement l'utiliser pour son grounding. La proposition reste sans adoption serieuse cote moteurs. **Faut-il publier un llms.txt malgre tout ?** Si le CMS le genere automatiquement, pas de raison de s'en priver. Le cout est nul. Si la generation demande un travail technique consequent, ce n'est pas un investissement prioritaire en GEO en 2026. **Le format peut-il devenir un standard officiel ?** C'est possible mais incertain. Sans validation par un organisme de normalisation et sans adoption par les grands moteurs, llms.txt restera marginal. Une evolution dependrait d'une decision officielle de Google, OpenAI ou Microsoft. ### Sources - [Proposal llms.txt](https://llmstxt.org) — Jeremy Howard - [Adoption tracker llms.txt](https://trends.builtwith.com/files/llms.txt) — BuiltWith --- ## Comprendre le RAG côté rédacteur, pas côté ingénieur - URL : https://geo-academy.fr/tactiques/tactique-05-rag-pour-redacteurs - Description : Une introduction au Retrieval Augmented Génération pensée pour les équipes éditoriales: comment ça marché, pourquoi ça change la rédaction. - Auteur : camille-lefebvre - Publie le : 2025-11-18 - Tags : geo, rag, pedagogie, fondamentaux **TL;DR.** Le RAG (Retrieval Augmented Generation) combine deux etapes: une recherche dans une base de documents (retrieval) et une generation de reponse a partir des documents trouves (generation). Pour un redacteur, le role est precis: produire du contenu extractible et facile a reformuler. Optimiser pour le RAG, c'est optimiser pour l'etape retrieval, pas pour l'etape generation. La difference change concretement les choix editoriaux qui marchent. Beaucoup de rédacteurs entendent "RAG" sans avoir une représentation claire de ce que le sigle recouvre. C'est dommage, parce que la [mécanique du RAG dans le pipeline de citation](/fondations/lecon-04-comment-un-llm-cite) explique directement les choix éditoriaux qui marchent et ceux qui ne marchent pas. Cet article présente le RAG sans jargon, en se concentrant sur ce qui intéresse une équipe éditoriale. ## Ce que veut dire RAG RAG signifie Retrieval Augmented Génération. Trois mots qui designent un pipeline en deux étapes. Première étape, le retrieval : a partir d'une question utilisateur, le système va chercher dans une base de documents ceux qui semblent pertinents. La base peut être une bibliotheque interne d'entreprise, l'index Google, un corpus Wikipedia, peu importe. L'important est qu'il y a une recherche. Deuxième étape, la génération : un modèle de langage reçoit la question utilisateur ainsi que les documents trouvés a l'étape précédente, et produit une réponse en s'appuyant dessus. La réponse est générée, mais elle est ancree (le terme technique est "grounded") sur des documents réels. Le RAG s'oppose a un usage purement mémoire des modèles, ou la réponse est produite uniquement a partir de ce que le modèle a appris pendant son entraînement, distinction approfondie dans la [leçon citation vs ingestion](/fondations/lecon-03-citation-vs-ingestion). Un modèle en mode mémoire pure est sujet aux hallucinations, parce qu'il invente quand il ne sait pas. Un modèle en mode RAG cité ses sources, parce qu'il les a sous les yeux au moment de générer. ## La métaphore de la bibliotheque Pour saisir la logique, prenons une métaphore. Imaginons un étudiant qui doit écrire un essai sur la fontosynthese. Deux options s'offrent a lui. Première option, l'essai de mémoire. L'étudiant ferme tous ses livres, s'assoit a son bureau et écrit ce qu'il sait sur la photosynthese. La qualité dépend uniquement de ce qu'il a memorise. S'il a oublie un détail, il l'invente, ou il l'omet. Cette option correspond au mode génératif pur d'un modèle de langage. Deuxième option, l'essai documente. L'étudiant va d'abord chercher dans la bibliotheque trois livres pertinents sur la photosynthese. Il les pose sur son bureau, ouverts aux bonnes pages. Puis il écrit son essai en s'appuyant sur ces sources. La qualité dépend de deux choses : la pertinence des livres trouvés, et sa capacite a en extraire et reformuler les passages utiles. Cette option correspond au mode RAG. Le rédacteur SEO, dans cette métaphore, est l'auteur d'un des livres dans la bibliotheque. Sa mission n'est pas d'écrire l'essai. Sa mission est d'écrire un livre qui sera trouve par l'étudiant lors de l'étape recherche, et utilisé par l'étudiant lors de l'étape rédaction. ## Le rôle du retrieval L'étape retrieval est rarement bien comprise. Beaucoup l'imaginent comme une recherche simple par mot-clé. C'est plus subtil. Le retrieval moderne fonctionne par similarite semantique liée a [l'optimisation des embeddings](/tactiques/tactique-09-embedding-optimization) : la question utilisateur est convertie en vecteur (un point dans un espace de très haute dimension), les documents disponibles sont eux aussi convertis en vecteurs, et le système récupère les documents dont les vecteurs sont les plus proches de celui de la question. Pour un moteur génératif comme Perplexity ou ChatGPT Search, l'étape retrieval combine plusieurs sous-étapes. Une recherche classique par mot-clé dans un index web, une recherche semantique par embeddings sur un sous-ensemble du web, parfois une recherche dans des sources spécifiques (Wikipedia, sources academiques). Les résultats sont reranked, filtres, puis transmis au modèle pour la génération. Le rédacteur n'a pas a comprendre tous les détails techniques. Mais il a intérêt a intégrer une conséquence : pour qu'un passage soit retrieve, il doit ressembler semantiquement a la question utilisateur. Cela ne veut pas dire répéter la question. Cela veut dire couvrir le champ lexical et conceptuel de la question. ## La phase génération et la reformulation Une fois les documents retrieved, l'étape génération peut commencer. Le modèle reçoit la question utilisateur ainsi que les passages sélectionnés (souvent decoupes en chunks de quelques centaines de mots). Il produit une réponse synthétique qui s'appuie sur ces passages. Deux comportements coexistent dans la génération. Le **grounding strict**, ou le modèle reproduit presque litteralement le contenu d'un passage, en citant la source. Et la **synthèse**, ou le modèle combine plusieurs passages pour produire une reformulation. Les moteurs génératifs modernes alternent les deux selon le type de question et le degré de coherence des sources. Pour le rédacteur, le grounding strict est un objectif accessible : écrire un passage qui peut être cité presque mot pour mot dans une réponse générative. Cela demande une formulation auto-suffisante, qui ne dépend pas du contexte des paragraphes voisins, et qui contient en elle-même l'information complète. ## Les leviers concrets pour le rédacteur A partir de ce schema, on peut deduire les leviers d'action éditoriaux. Trois leviers se degagent. **Premier levier, la couverture lexicale.** Pour qu'un document soit retrieved sur une question donnée, il doit utiliser un vocabulaire qui couvre largement le champ semantique de cette question. Pas seulement les mots-clés principaux, mais aussi les termes adjacents, les synonymes, les concepts lies. Une page sur le RAG qui n'utilisé jamais le mot "retrieval" ou "embedding" sera mal positionnée semantiquement, même si elle est techniquement juste. **Deuxième levier, l'auto-suffisance des passages.** Chaque paragraphe doit pouvoir être cité hors contexte. Cela implique de ne pas commencer un paragraphe par "Comme nous l'avons vu", de nommer explicitement les acteurs et les concepts a chaque section, de répéter le contexte minimal nécessaire a la comprehension d'un passage isolé. Le rédacteur SEO classique évite la répétition. Le rédacteur GEO la calibre. **Troisième levier, la facilité de reformulation.** Un passage rédigé dans un français clair, sec, syntaxiquement simple, est plus facilement reformulable par le modèle génératif. Les phrases longues, les subordinations multiples, les tournures littéraires compliquent la génération. Le modèle a alors tendance soit a citer maladroitement, soit a reformuler en perdant de l'information. La prose claire augmente la fidélité de la reformulation. ## Ce qui ne change pas Le RAG ne change pas tout. Il y a beaucoup de continuite avec le SEO classique. La qualité du contenu, la pertinence par rapport a l'intention utilisateur, la profondeur du traitement, la réputation du domaine restent des criteres importants. Un site qui produit du contenu pauvre ne sera pas mieux retrieve par un moteur génératif que par un moteur classique. Le RAG ajoute des criteres spécifiques (densite extractible, auto-suffisance, citation des sources) sans abolir les criteres anciens. Une bonne page GEO est une bonne page SEO qui a recu une couche supplémentaire d'optimisation. ## Le piège de la sur-ingénierie Pour finir, une mise en garde. Beaucoup de contenu publié sur le RAG depuis 2023 est écrit pour des ingénieurs et utilisé un vocabulaire technique (vector store, chunk overlap, BM25, hybrid search, reranking model) qui ne sert a rien au rédacteur. La maîtrise de ce vocabulaire ne fait pas un meilleur article. La maîtrise des trois leviers cités au-dessus, oui. Le rédacteur n'a pas besoin de savoir choisir entré Pinecone et Weaviate. Il a besoin de savoir comment écrire un paragraphe que ces systèmes vont retrouver et que le modèle va citer. C'est un objectif beaucoup plus accessible. Et c'est celui qui produit réellement de la visibilité sur les moteurs génératifs. ### FAQ **Qu'est-ce que le RAG en termes simples ?** Un systeme qui combine deux etapes: il cherche des documents pertinents dans une base (retrieval), puis genere une reponse a partir de ces documents (generation). C'est l'architecture de la plupart des moteurs generatifs avec citations (Perplexity, ChatGPT Search, AI Overviews). **Pourquoi un redacteur doit-il comprendre le RAG ?** Parce que les choix editoriaux qui marchent dependent de l'etape retrieval. Un texte bien ecrit mais difficile a extraire ne sera pas selectionne. Un texte plus simple mais bien chunke peut etre prefere. La mecanique RAG explique ces choix. **Optimise-t-on pour le retrieval ou pour la generation ?** Pour le retrieval. La generation est interne au modele et echappe largement a l'editeur. Le retrieval depend de la qualite editoriale, de la structure du contenu, du balisage technique et de l'autorite, tous des leviers actionnables. **Quels sont les criteres d'un contenu RAG-friendly ?** Chunk autonome (comprehensible hors contexte), entites nommees explicitement (pas de pronoms ambigus), syntaxe simple, hierarchie H2-H3 claire, freshness (date visible), autorite du domaine et de l'auteur. **Le RAG est-il identique sur tous les moteurs ?** Non. Chaque moteur (Perplexity, ChatGPT Search, AI Overviews) a sa propre implementation. Les principes generaux du papier de Lewis et al de 2020 restent valides, mais les ponderations et les details varient. **Faut-il abandonner les longs articles pour des chunks ?** Pas necessairement. Un long article peut etre RAG-friendly s'il est bien structure (H2-H3 marques, paragraphes autonomes, entites en clair). La structure compte plus que la longueur. Les longs articles ont meme l'avantage de la couverture fan-out. ### Sources - [Retrieval-Augmented Génération for Knowledge-Intensive NLP Tasks](https://arxiv.org/abs/2005.11401) — Patrick Lewis et al., Facebook AI Research - [Documentation Perplexity sur l'architecture](https://www.perplexity.ai/hub) — Perplexity AI --- ## La densite de citation: relire le papier Princeton dans la pratique - URL : https://geo-academy.fr/tactiques/tactique-02-densite-citation-princeton - Description : Lecture critique du papier Princeton 2311.09735 sur l'optimisation pour les moteurs génératifs, avec les leviers réellement actionnables en rédaction. - Auteur : solene-marchais - Publie le : 2025-11-12 - Tags : geo, citation-density, princeton, recherche **TL;DR.** Le papier Princeton 2311.09735, publie en novembre 2023 par Pranjal Aggarwal et son equipe, mesure l'effet de sept strategies de reecriture sur la visibilite d'une page dans les moteurs generatifs. Cinq strategies ameliorent la visibilite, deux la degradent. L'ajout de citations chiffrees produit le gain le plus net mesure dans l'experimentation, et c'est le levier le plus operationnel pour une equipe de redacteurs. Le [papier Princeton fondateur du GEO](/fondations/lecon-01-quest-ce-que-le-geo) est devenu une référence rapide. La plupart des articles de blog qui le citent en font une lecture superficielle. Le papier mérite mieux. Il contient des résultats experimentaux précis qui se traduisent directement en consignes de rédaction. Cet article relit l'expérimentation méthode par méthode et tire les conséquences opérationnelles. ## Le contexte du papier Pranjal Aggarwal, Vishvak Murahari et leurs co-auteurs ont publié le papier en novembre 2023 sur arxiv sous la référence 2311.09735. L'objectif déclare était d'évaluer dans quelle mesure des modifications systématiques apportees au texte d'une page web pouvaient influencer sa probabilité d'être citée par un moteur génératif. Le protocole repose sur GEO-bench, un benchmark de dix mille requêtes provenant de neuf sources différentes, dont des questions ELI5, des requêtes commerciales, des requêtes academiques. Les auteurs comparent les versions originales des pages a des versions modifiées selon sept stratégies. La métrique principale est le "subjective impression score", qui combine la position de la citation, sa visibilité et le poids semantique du passage cité. ## Les sept méthodes testées Voici la synthèse des résultats experimentaux principaux du papier. | Méthode | Effet sur la visibilité | Lecture opérationnelle | |---------|-------------------------|------------------------| | Authoritative | Tonalité plus assertive | Effet positif modéré | | Citation Addition | Ajout de citations vers sources fiables | Plus haut gain mesure | | Statistics Addition | Ajout de chiffres et statistiques | Gain élevé | | Quotation Addition | Ajout de citations directes | Gain modéré | | Fluency Optimization | Amélioration du style | Gain marginal | | Easy-to-Understand | Simplification du langage | Gain marginal | | Keyword Stuffing | Répétition de mots-clés | Effet negatif net | | Unique Words | Vocabulaire varie | Effet légèrement negatif | La hiérarchie est claire. Les trois leviers qui marchent vraiment sont la **citation de sources externes**, l'**ajout de statistiques chiffrees** et la **citation directe de propos**. Les leviers cosmetiques (fluence, simplification) produisent un gain marginal. Et la sur-optimisation lexicale dégradé la visibilité. ## Pourquoi ces résultats ne surprennent pas Le papier confirme une intuition que l'ingénierie des modèles de langage rend évidente. Un modèle entraîne a produire une réponse fiable a appris a privilegier les passages qui ressemblent a des sources vérifiables. Un paragraphe qui contient un nom propre, une date, un chiffre et une citation directe coche les marqueurs de fiabilité que le modèle a appris a reconnaître. A l'inverse, un texte qui répète la même expression-clé est sur-optimise pour le SEO classique mais pas pour le moteur génératif. Le modèle de langage détecte le pattern, le traite comme du remplissage, et réduit le poids du passage. Le keyword stuffing, qui produit encore des effets visibles dans les SERP classiques, est explicitement penalise dans l'évaluation générative, comme l'illustre la [frontière entre AEO et GEO](/tactiques/tactique-06-aeo-vs-geo-frontiere). ## La traduction opérationnelle Les chiffres du papier sont mesures sur GEO-bench, pas sur Google AI Mode. La transposition demande prudence. Mais l'expérience accumulee depuis publication confirme la direction. Trois consignes simples se degagent pour la rédaction. **Première consigne : densite chiffree.** Un article publié aujourd'hui doit contenir au minimum un chiffre vérifiable tous les deux cents mots, idéalement un toutes les cent cinquante mots. Le chiffre doit être source. Une statistique non sourcee est neutre dans le meilleur des cas, suspecte dans le pire. **Deuxième consigne : citations directes.** Citer textuellement une personne nommee, dans un format reconnaissable, augmente la probabilité que le passage soit sélectionné comme contexte. La forme syntaxique compte. "Selon Olaf Kopp, [le Brand Context Optimization](/tactiques/tactique-04-brand-context-optimization) repose sur..." est un format que le modèle reconnaît et privilegie. "Olaf Kopp pense que c'est important" est trop flou. **Troisième consigne : refusion des mots-clés.** Le keyword stuffing a un effet negatif mesure dans le papier. Cela signifie qu'une page sur-optimisee SEO classique sera moins citée qu'une page bien écrite avec un seul rappel naturel du concept. La conséquence est inconfortable pour les équipes habituees a viser une densite de mot-clé de un a deux pour cent : il faut descendre. ## Les limites du papier Le papier a des limites qu'il faut nommer pour ne pas le faire dire ce qu'il ne dit pas. D'abord, le benchmark utilisé est synthétique. Il évalue la visibilité dans une simulation de moteur génératif fondée sur GPT-3.5 et GPT-4, pas dans Google AI Mode ou Perplexity en production. Les classements peuvent differer. Ensuite, l'expérimentation porte sur des modifications appliquées a des pages existantes, pas sur la production de pages from scratch. L'effet d'une modification ajoutee a une page déjà bien classee n'est pas le même que l'effet de produire une page nouvelle qui intègre les mêmes leviers. Enfin, les gains rapportes (entre dix et quarante pour cent selon les méthodes et les types de requêtes) sont des moyennes. La variance est forte. Sur certaines catégories de requêtes, l'ajout de statistiques produit cinquante pour cent d'amélioration. Sur d'autres, presque rien. ## Reproductibilite et tests indépendants Le code et le dataset sont disponibles sur le repository GitHub des auteurs. Plusieurs équipes de recherche ont reproduit les résultats, avec des variations importantes selon le moteur génératif testé. Sur Perplexity, les leviers fonctionnent de manière similaire au papier. Sur ChatGPT Search, l'écart se réduit. Sur Google AI Mode, les conditions de test sont plus difficiles a reproduire car l'API officielle ne donne pas acces a la génération directe. [Solene Marchais](/auteurs/solene-marchais) a coordonne avec [Camille Lefebvre](/auteurs/camille-lefebvre) une [replication française documentée dans notre étude maison](/tactiques/tactique-11-citation-density-etude) sur un panel de cinquante requêtes en mars 2026. Les leviers Citation Addition et Statistics Addition ressortent comme les plus efficaces, conformement au papier. Fluency Optimization donné des résultats nuls a marginaux. Le Keyword Stuffing produit un effet negatif moins prononce que dans le papier original mais bien réel. La replication tend donc a confirmer la hiérarchie sur le marché francophone, avec une amplitude moindre. ## Ce que le papier ne dit pas Le papier resté muet sur trois points cruciaux pour une équipe éditoriale. Il ne dit rien sur la **structure** des pages. Le découpage en sections, le balisage HTML, la profondeur de hiérarchie ne sont pas testés. C'est une limite sérieuse, parce que ces éléments sont au moins aussi importants que les leviers textuels pour le grounding. Il ne dit rien non plus sur la **competition**. Une page qui applique tous les leviers identifiés fonctionne-t-elle mieux dans un univers ou personne ne les applique, ou dans un univers ou tout le monde les applique ? La réponse évidente est qu'a saturation, l'effet relatif disparaît. La fenêtre d'opportunité se referme. Enfin, le papier ne dit rien sur la **maintenance**. Une page optimisee aujourd'hui resté-t-elle optimisee dans six mois, dans un an ? Les modèles de langage sont reentraines régulièrement. Les comportements changent. Une étude longitudinale manque. Le papier resté neanmoins le document le plus solide disponible publiquement sur la question. Il mérite d'être lu intégralement, pas résumé en trois bullets. La vingtaine de pages de l'article apporte plus que dix billets de blog qui s'en inspirent. Pour une équipe qui veut sérieusement aborder le GEO, c'est une lecture de base, pas une lecture optionnelle. ### FAQ **Qui a ecrit le papier Princeton sur le GEO ?** Une equipe menee par Pranjal Aggarwal (Princeton), avec Vishvak Murahari et co-auteurs de Georgia Tech et IIT Delhi. Publie en novembre 2023 sur arXiv sous la reference 2311.09735, presente ensuite a la conference ACM KDD 2024. **Quelle est la principale conclusion du papier ?** Sur sept strategies de reecriture testees, cinq ameliorent la visibilite (citations chiffrees, citations sources, statistiques, langage authoritatif, simplification) et deux la degradent (bourrage mot-cle, exclusivite). L'ajout de citations chiffrees produit le gain le plus important. **Comment ont-ils mesure la visibilite ?** Via une metrique appelee subjective impression score qui combine la position de la citation dans la reponse, sa visibilite et le poids semantique du passage cite. Plus une page est citee tot et avec un passage central, plus son score est eleve. **Le papier est-il applicable aux moteurs francophones ?** Le protocole a ete teste sur des moteurs anglophones. Les principes generaux (densite citation, autorite, statistiques) se transferent au francais, mais l'amplitude des effets peut differer. Une replication francaise serait utile mais n'a pas ete publiee. **Quelle densite de citations viser dans une page ?** Le papier ne donne pas de seuil chiffre. Une etude maison d'Academie GEO suggere une densite de l'ordre d'une citation source toutes les 200 a 250 mots comme optimale sur Perplexity. Au-dela, l'effet sature et la lisibilite chute. **Les leviers du papier sont-ils encore valides en 2026 ?** Globalement oui pour les leviers structurels (citations, statistiques, autorite). Les pipelines des moteurs ont evolue depuis 2023 mais les principes restent. Les pratiques de bourrage mot-cle restent contre-productives. ### Sources - [GEO: Generative Engine Optimization](https://arxiv.org/abs/2311.09735) — Pranjal Aggarwal et al., Princeton University - [Repository GitHub officiel du papier](https://github.com/GEO-optim/GEO) — GEO-optim collective --- # Etudes de cas francaises ## Octopus Energy face aux moteurs génératifs : narratif climat porteur, concurrence française visible - URL : https://geo-academy.fr/etudes-de-cas/octopus-energy - Description : Audit maison de la présence d'Octopus Energy sur cinq moteurs génératifs en avril 2026. Bonne reconnaissance comme fournisseur d'électricité verte oriente climat, concurrence directe d'Ekwateur, Mint, Ilek et Ekomi sur les prompts comparatifs français. - Auteur : theo-roux - Publie le : 2026-04-22 - Tags : etude de cas, energie, fournisseur electricite, octopus energy, share of answer **TL;DR.** Octopus Energy est bien identifie par les moteurs generatifs comme fournisseur d'electricite verte avec un narratif climat lisible, mais la concurrence francaise est visible sur les prompts comparatifs. Ekwateur, Mint, Ilek et Ekomi apparaissent quasi systematiquement aux cotes de la marque, parfois avant. Audit du 22 avril 2026 sur 75 prompts joues trois fois sur cinq moteurs. Octopus Energy a construit en France un positionnement clair autour de l'électricité verte, de l'innovation tarifaire et d'un narratif climat assume. Notre audit maison d'avril 2026 confirme que cette signature a été bien apprise par les [moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs), en particulier sur les prompts orientes transition énergétique. Mais il révèle aussi un environnement competitif dense : Ekwateur, Mint, Ilek et Ekomi apparaissent régulièrement, et la marque perd de la centralite des que la requête bascule sur une logique purement tarifaire. Cette étude propose une lecture honnête de cette position, fondée sur soixante-quinze prompts joues trois fois sur cinq moteurs, le 22 avril 2026, en s'appuyant sur les [premières métriques de présence IA](/fondations/lecon-07-mesurer-presence-ia). ## Pourquoi ce cas Le marché français de l'électricité a connu en 2024 et 2025 une recomposition profonde, marquee par la fin progressive du tarif reglemente unifié, la montee des offres vertes et un retour de la sensibilite des consommateurs aux questions climatiques. Les moteurs génératifs sont devenus une interface importante pour comparer, comprendre et choisir un fournisseur. Octopus Energy est un cas intéressant parce qu'il combine deux atouts forts : une presse engagee qui le cité régulièrement et une signature produit innovante. Comprendre la manière dont les moteurs traduisent cette double force par rapport a des concurrents français comme Ekwateur, Mint, Ilek ou Ekomi permet de cartographier un secteur ou la concurrence éditoriale est sans doute plus dense que sur d'autres catégories grand public. ## Méthodologie L'audit est un panel maison rejouable, pas un rapport tiers, conçu selon le [framework PromptStack 4-Layers](/methodologie/promptstack-4-layers). Soixante-quinze prompts ont été construits autour de quatre familles d'intention : choix d'un fournisseur d'électricité verte, comparaison entré fournisseurs alternatifs, prompts tarifaires explicites, et prompts adjacents sur l'autoconsommation, le compteur Linky ou les conseils pour réduire sa facture. Chaque prompt a été joue trois fois sur ChatGPT Search, Perplexity, Google AI Overviews, Gemini et Bing Copilot, le 22 avril 2026, en français, depuis une session non personnalisée. La citation a été codee selon trois niveaux : présence dans le corps, présence dans une liste structurée et absence. Les concurrents principaux ont été suivis en parallèle pour situer la position relative de la marque. Les limites assumees : le panel ne capte pas les variations regionales fines, par exemple les zones encore couvertes par certains regimes tarifaires spécifiques ; il reflete une journee donnée ; et il n'intègre pas les changements de communication intervenus après la collecte. ## Ce qu'on a observe Sur les prompts orientes électricité verte, transition énergétique et fournisseur engage, Octopus Energy est cité très fréquemment, souvent avec une mention explicite de son discours climat. Les moteurs reformulent la marque en lien avec son ancrage britannique, sa filiale française et son investissement dans des solutions de pilotage de la consommation. La signature de marque est lisible, ce qui distingue la marque de plusieurs concurrents au discours plus generique. Sur les prompts comparatifs explicites, comme Octopus ou Ekwateur, ou meilleur fournisseur vert face a Ilek, la marque resté présente mais le paysage est dense. Ekwateur apparaît quasi systématiquement, avec un discours souvent associe a la dimension cooperative et a la transparence des sources d'énergie. Mint est cité fréquemment sur les prompts qui melent prix et engagement vert. Ilek beneficie d'un narratif fournisseurs locaux qui se prête bien aux réponses génératives. Ekomi est cité plus ponctuellement, mais sa présence augmente sur les prompts tarifaires. Sur les prompts purement tarifaires, type moins cher qu'EDF, meilleur prix kWh 2026 ou economiser sur la facture électricité, Octopus Energy est moins central. Les moteurs renvoient plutôt vers des comparateurs comme Selectra, vers EDF lui-même, ou vers des fournisseurs positionnes prix. La marque apparaît, mais souvent dans une seconde moitie de réponse, ce qui peut limiter la conversion. Sur les prompts adjacents, autoconsommation, compteur Linky, conseils économies, la marque est citée de manière variable. Sur l'autoconsommation, son discours d'innovation joue en sa faveur. Sur le Linky, les moteurs renvoient plutôt vers Enedis et la presse consommateur. Sur les conseils économies, les réponses sont generiques et la marque est secondaire. | Famille de prompt | Octopus cité | Concurrent dominant | Lecture | |---|---|---|---| | Électricité verte | Très fréquent | Ekwateur, Ilek | Position de référence partagee | | Comparatif explicite | Fréquent | Ekwateur, Mint, Ilek | Concurrence active | | Tarifaire pur | Variable | Selectra, EDF, fournisseurs prix | Marque secondaire | | Adjacent autoconsommation Linky | Variable | Enedis, presse conso | Signal mixte | ## Hypotheses sur le pourquoi La forte présence sur le narratif vert vient probablement de plusieurs signaux convergents, conformes aux principes du [Brand Context Optimization](/tactiques/tactique-04-brand-context-optimization). La marque a beneficie d'une couverture presse engagee importante, en France comme au Royaume-Uni, qui répète les mêmes éléments de langage : énergie verte tracee, innovation tarifaire, pilotage intelligent. Les moteurs génératifs apprennent vite ces signatures lorsqu'elles sont coherentes dans le temps et reprises par des sources tierces crédibles. La parite avec Ekwateur, Mint et Ilek sur les comparatifs s'explique par une autre dynamique. Ces concurrents ont eux aussi investi un discours climat ou cooperatif lisible, et leur positionnement se prête bien a une comparaison structurée. Les moteurs génératifs aiment les listes coherentes qui opposent ou completent plusieurs acteurs. Sur ce terrain, Octopus n'est pas en difficulte, mais elle n'est pas seule a porter la voix de la transition énergétique. La marginalisation sur les prompts tarifaires est plus revelatrice. La marque a investi sur l'argument vert, mais moins sur l'argument prix dans la matière éditoriale française. Les moteurs ont donc associe Octopus a un univers de valeurs plutôt qu'a un univers de prix. C'est un choix stratégique coherent, mais il limite la capture d'une intention de recherche très fréquente, en particulier dans les périodes de tension sur le pouvoir d'achat. ## Recommandations Renforcer la présence éditoriale sur les comparaisons fournisseur par fournisseur via le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). Publier des pages claires qui se confrontent a Ekwateur, Mint, Ilek et Ekomi sur des criteres concrets, en assumant un ton factuel. Ces pages servent de matière première aux moteurs sur les prompts comparatifs et evitent qu'ils s'appuient uniquement sur des comparateurs tiers. Investir une matière éditoriale tarifaire honnête. Construire des contenus qui expliquent le positionnement prix de la marque sans masquer ses choix, par exemple sur le tarif heure creuse, le tarif indexe ou les offres spécifiques. Sans viser une position de fournisseur low cost, ces pages permettent aux moteurs de relier la marque a une intention prix qu'elle ignore aujourd'hui. Capitaliser sur les prompts autoconsommation. Le terrain panneau solaire et autoconsommation est en pleine structuration en 2026. La marque a une légitimité produit réelle dans ce domaine et peut construire une autorité éditoriale française avant que les moteurs ne stabilisent leurs sources sur ce sujet. Travailler les sources tierces françaises au-dela de la presse engagee. La couverture presse climat est forte mais homogene. Diversifier les sources, notamment vers la presse économique et la presse consommateur généraliste, permettrait d'inflechir la manière dont les moteurs equilibrent la marque face a des concurrents installes. Mettre en place un suivi mensuel de share of answer cible sur les prompts tarifaires, via le [monitoring en continu](/tactiques/tactique-10-monitoring-en-continu). C'est sur ce terrain que la marque a le plus a gagner ou a perdre, et c'est aussi celui ou la derive des moteurs est la plus rapide en période de tension énergétique. ## Limites de l'étude Le panel de soixante-quinze prompts couvre les grandes intentions du marché grand public mais ne capte pas finement certaines niches comme l'électricité pour artisan, l'électricité pour copropriete ou les zones non interconnectees. Les résultats reflettent une journee donnée, le 22 avril 2026, et la derive habituelle des moteurs entré sept et trente jours peut deplacer les positions observees. Le secteur énergétique est aussi très sensible aux annonces tarifaires et reglementaires : un audit conduit après une évolution du tarif reglemente ou une campagne presse forte donnerait probablement une image différente. Enfin, l'audit ne mesure pas la qualité de la réponse au-dela de la citation, ce qui est une limite assumee : être cité avec un narratif climat clair ne produit pas la même valeur qu'une mention rapide en queue de liste. Les conclusions présentées ici servent a alimenter une réflexion stratégique et un suivi interne, pas a remplacer un audit longitudinal plus large. ### FAQ **Octopus Energy est-il associe a un positionnement clair dans les reponses IA ?** Oui, le narratif climat et la promesse d'electricite verte sont reconnus par les moteurs. La marque est citee de maniere coherente sur les prompts transition energetique, fournisseur vert, energie renouvelable particulier. **Quels concurrents apparaissent face a Octopus Energy en France ?** Ekwateur, Mint, Ilek et Ekomi sont les concurrents les plus systematiques sur les prompts verts comparatifs. EDF, Engie et TotalEnergies dominent sur les prompts generaux fournisseur d'electricite particulier. **Sur quels prompts Octopus Energy est-il moins central ?** Sur les prompts purement tarifaires comme moins cher qu'EDF ou meilleur prix kWh, les moteurs renvoient plutot vers des comparateurs (Selectra, JeChange) et des fournisseurs low cost. Le narratif climat ne pese pas sur les requetes prix. **Quelle methodologie a ete utilisee ?** 75 prompts batis autour de quatre familles d'intention (vert, comparatif, tarifaire, adjacent), joues trois fois sur cinq moteurs (ChatGPT Search, Perplexity, AI Overviews, Gemini, Bing Copilot) le 22 avril 2026, en francais. **Quel correctif prioritaire identifie pour Octopus Energy ?** Renforcer la presence sur les prompts tarifaires en publiant des contenus de comparaison structuree avec les low cost francais, sans abandonner le narratif climat qui constitue la signature distinctive de la marque. **L'audit couvre-t-il les prompts B2B energie ?** Non. L'audit s'est concentre sur les prompts grand public et particulier. La presence B2B (entreprises, professionnels) n'a pas ete mesuree dans cette etude et meriterait un audit dedie. ### Sources - [Octopus Energy France](https://octopusenergy.fr/) - [Ekwateur, présentation](https://ekwateur.fr/) - [Ilek, le fournisseur d'énergie verte](https://www.ilek.fr/) --- ## Alan dans les réponses génératives : signature B2B forte, angle mort grand public - URL : https://geo-academy.fr/etudes-de-cas/alan - Description : Audit maison de la présence d'Alan sur cinq moteurs génératifs en avril 2026. Excellente reconnaissance comme mutuelle des startups et PME tech, faiblesse marquee sur les prompts grand public et les comparatifs avec Allianz ou Generali. - Auteur : theo-roux - Publie le : 2026-04-08 - Tags : etude de cas, assurance sante, mutuelle, alan, share of answer **TL;DR.** Alan est tres bien identifie par les moteurs generatifs comme mutuelle des startups et PME tech francaises, avec une signature de marque reconnaissable sur les prompts B2B. La marque est en revanche presque absente sur les prompts grand public (mutuelle famille, mutuelle senior, comparatif avec Allianz ou Generali), audit conduit le 8 avril 2026 sur 90 prompts joues trois fois sur cinq moteurs. Alan a construit en quelques années un positionnement reconnaissable autour de la mutuelle pour startups, scale-ups et PME tech. Notre audit maison d'avril 2026 montré que cette signature a été bien apprise par les [moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs) sur le terrain B2B français. Mais il révèle aussi une zone d'invisibilite quasi totale sur les prompts grand public, qui constituent une part importante de l'intention santé en France. Cette étude propose une cartographie honnête de cette dualite, fondée sur quatre-vingt-dix prompts joues trois fois sur cinq moteurs, le 8 avril 2026, et non sur un classement officiel ou un rapport tiers. ## Pourquoi ce cas Le marché de la mutuelle santé française est l'un des plus structurés par les acteurs traditionnels : Allianz, Generali, Harmonie Mutuelle, MGEN et Macif occupent un espace mental dense, renforce par des decennies de campagnes et un volume éditorial considérable. Alan a choisi un positionnement différent, oriente B2B technologique, avec une promesse produit moderne. La manière dont les moteurs génératifs articulent ces deux mondes a un impact concret sur la prospection commerciale et sur la perception de l'innovation dans la catégorie. Ce cas est intéressant parce qu'il illustre un phénomène plus large : une marque peut dominer une niche sans être vue par les moteurs sur les prompts adjacents les plus fréquents. ## Méthodologie L'audit est un panel maison rejouable, pas une étude exclusive, construit selon les principes du [framework PromptStack 4-Layers](/methodologie/promptstack-4-layers). Quatre-vingt-dix prompts ont été batis autour de quatre familles d'intention : mutuelle pour entreprise et startup, mutuelle individuelle et famille, comparatifs explicites entré acteurs, et questions adjacentes comme la teleconsultation, le 100 percent santé ou la prevoyance. Chaque prompt a été joue trois fois sur ChatGPT Search, Perplexity, Google AI Overviews, Gemini et Bing Copilot, le 8 avril 2026, en français, depuis une session non personnalisée. La citation a été codee selon trois niveaux : présence dans le corps de la réponse, présence dans une liste structurée, et absence. Les concurrents principaux ont été suivis en parallèle pour situer la position relative de la marque, en mobilisant les [premières métriques de présence IA](/fondations/lecon-07-mesurer-presence-ia). Cette démarche présente trois limites assumees : elle ne mesure pas la qualité percue de la réponse, elle ne capte pas la variation par moteur sur une fenêtre longue, et elle ne distingue pas les variantes des prompts liees au statut juridique de la TPE. ## Ce qu'on a observe Sur les prompts B2B explicites, Alan est cité très fréquemment, parfois en première position. Les formulations qui marchent le mieux pour la marque sont celles qui evoquent une PME tech, une startup en croissance, un employeur soucieux de proposer une mutuelle moderne ou un environnement de travail orienté bien-être. Sur ces prompts, les moteurs reformulent souvent la promesse autour de l'expérience utilisateur, de l'application mobile et de la teleconsultation integree. La signature de marque est reconnaissable, ce qui est rare sur ce marché. Sur les prompts grand public, la situation est très différente. Les requêtes mutuelle pour ma famille, complementaire santé a la retraite, mutuelle senior pas chere ou choisir une mutuelle quand on est indépendant renvoient principalement vers Allianz, Generali, Harmonie Mutuelle, MGEN, Malakoff Humanis et Aesio. Alan est rarement cité, et lorsqu'il l'est, c'est souvent en queue de liste, sans contexte fonctionnel particulier. Les moteurs semblent traiter ces prompts en s'appuyant sur les assureurs historiques et sur les comparateurs. Sur les prompts comparatifs explicites, comme Alan ou Allianz pour ma TPE, les moteurs introduisent davantage la marque, mais les réponses sont prudentes et renvoient souvent vers des comparateurs comme LesFurets ou Lelynx. La citation existe, mais elle est encadree par des sources tierces. Sur les prompts adjacents, le 100 percent santé, la prevoyance ou la teleconsultation, Alan est cité ponctuellement, surtout lorsque la teleconsultation est mentionnée. Sur la prevoyance pure, l'invisibilite est presque totale. | Famille de prompt | Alan cité | Concurrent dominant | Lecture | |---|---|---|---| | Mutuelle entreprise tech | Très fréquent | Aucun stable | Signature claire | | Grand public famille senior | Rare | Allianz, Generali, MGEN | Angle mort majeur | | Comparatif explicite | Variable | Comparateurs cités | Citation prudente | | Adjacent prevoyance teleconsultation | Variable | Acteurs traditionnels | Mixed | ## Hypotheses sur le pourquoi La forte présence sur le terrain B2B vient probablement d'un signal éditorial concentré, conforme aux principes du [Brand Context Optimization d'Olaf Kopp](/tactiques/tactique-04-brand-context-optimization). Alan a investi sur du contenu de marque très lisible, des prises de position publiques de ses dirigeants et une presse tech qui reprend régulièrement la marque. Les moteurs génératifs apprennent vite ces signatures de niche lorsqu'elles sont repetees avec coherence. La marque beneficie aussi d'une categorisation dans les listes startup française notable, qui reapparait dans des réponses adjacentes. L'angle mort grand public a une cause structurelle. Les moteurs génératifs s'appuient sur la masse éditoriale historique pour répondre a des prompts familiaux ou senior. Cette masse est dominee par les assureurs traditionnels, par la presse généraliste et par les comparateurs, qui ont produit des decennies de contenus sur la complementaire santé. Alan, plus jeune, n'a pas cette densite. La marque pourrait combler ce vide éditorial, mais cela impliquerait un investissement en contenu hors de son ADN B2B actuel. La présence prudente sur les comparatifs s'explique par un troisième mecanisme. Les moteurs evitent souvent de trancher frontalement entré des assureurs et préfèrent renvoyer vers des comparateurs. Ce comportement penalise les marques jeunes, qui n'ont pas le poids historique d'un Generali ou d'un Allianz, mais il n'est pas une fatalite. Une présence renforcee dans les comparatifs presse française pourrait inverser cette tendance. ## Recommandations Assumer le choix B2B et l'amplifier. Investir sur des contenus orientes employeur, RH et fondateur, avec des études de cas client publiques et des temoignages chiffres. Cette zone est celle ou les moteurs reconnaissent déjà la signature, c'est aussi celle qui a la meilleure rentabilité commerciale. Tester un investissement éditorial cible sur les prompts grand public. Sans viser une domination face a Generali, construire une série de pages claires sur les questions concrètes des employes, conjoints et enfants couverts par une mutuelle Alan. Ces pages serviront de matière première lorsque les moteurs traitent une requête familiale liee a un employeur déjà client. Travailler les sources tierces françaises, en intégrant les [entités déclarées sur Wikidata](/tactiques/tactique-13-entites-wikidata). La présence dans la presse économique, les podcasts startup et les comparatifs spécialisés a un impact direct sur la manière dont les moteurs equilibrent Alan face aux acteurs historiques. Cette autorité externe ne se construit pas en un trimestre mais elle se travaille sur dix-huit mois. Investir explicitement la prevoyance. Le terrain prevoyance, en particulier autour des fondateurs et des dirigeants, est aujourd'hui presque absent du discours public d'Alan. Une série de contenus structurés permettrait de capter une intention adjacente naturelle pour la marque. Mettre en place un suivi mensuel cible sur les prompts comparatifs, via le [monitoring en continu sans budget enterprise](/tactiques/tactique-10-monitoring-en-continu). La frontière entré présence prudente et absence réelle se joue souvent sur quelques formulations. Un panel réduit, joue chaque mois sur deux moteurs principaux, suffit a détecter une derive. ## Limites de l'étude Le panel de quatre-vingt-dix prompts couvre les grandes intentions mais ne capte pas finement les niches professionnelles, par exemple la mutuelle pour profession liberale ou la mutuelle pour holding patrimoniale. Les résultats reflettent une journee donnée, le 8 avril 2026, et la derive habituelle des moteurs entré sept et trente jours peut deplacer les positions. Le marché de l'assurance est aussi sensible aux périodes commerciales, et un audit en septembre, période classique de souscription, donnerait probablement une image différente. Enfin, l'audit n'intègre pas la qualité des réponses au-dela de la citation : être mentionne sans contexte ne produit pas la même valeur qu'une citation argumentee. Les conclusions doivent donc être lues comme un signal a confronter au suivi interne et a un panel externe plus large pour piloter une stratégie GEO de moyen terme. ### FAQ **Sur quels prompts Alan est-il le mieux cite par les moteurs IA ?** Sur les prompts B2B explicites: mutuelle pour startup, mutuelle pour PME tech, mutuelle moderne pour scale-up. Les moteurs reformulent souvent la promesse autour de l'application mobile et de la teleconsultation integree. **Pourquoi Alan est-il invisible sur les prompts grand public ?** Les requetes mutuelle famille, mutuelle senior ou mutuelle pas chere renvoient principalement vers Allianz, Generali, Harmonie Mutuelle et MGEN. Les moteurs s'appuient sur les assureurs historiques et les comparateurs, pas sur les neo-assureurs. **Combien de prompts ont ete testes pour cet audit ?** 90 prompts joues trois fois chacun sur ChatGPT Search, Perplexity, Google AI Overviews, Gemini et Bing Copilot, le 8 avril 2026, en francais, depuis une session non personnalisee. **Quels concurrents apparaissent sur les comparatifs avec Alan ?** Sur les comparatifs explicites comme Alan vs Allianz pour ma TPE, les moteurs introduisent davantage la marque mais renvoient frequemment vers LesFurets ou Lelynx. La citation existe, encadree par des sources tierces. **Alan est-il cite sur la prevoyance et la teleconsultation ?** Sur la teleconsultation, Alan est cite ponctuellement quand le terme apparait dans la requete. Sur la prevoyance pure, l'invisibilite est presque totale, les moteurs ne l'associant pas a ce produit. **Quelle est la limite principale de l'audit ?** L'audit ne mesure pas la qualite percue de la reponse, ne capte pas la variation par moteur sur une fenetre longue, et ne distingue pas les variantes liees au statut juridique de la TPE. C'est une cartographie ponctuelle. ### Sources - [Alan, présentation](https://alan.com/fr-fr) - [Allianz France](https://www.allianz.fr/) - [Generali France](https://www.generali.fr/) --- ## Mirakl et les moteurs génératifs : leader anglophone, signal français a construire - URL : https://geo-academy.fr/etudes-de-cas/mirakl - Description : Audit maison de la présence de Mirakl sur cinq moteurs génératifs en mars 2026. Très forte autorité en anglais sur les prompts marketplace SaaS, sous-représentation marquee dans les réponses françaises grand public et dans les AI Overviews francophones. - Auteur : theo-roux - Publie le : 2026-03-26 - Tags : etude de cas, saas, marketplace, B2B, mirakl **TL;DR.** Mirakl est cite tres frequemment sur les prompts anglais lies aux plateformes marketplace SaaS, avec une association forte aux rapports Forrester et Gartner. Sur les prompts francophones grand public et les AI Overviews francaises, la marque est largement sous-representee, y compris sur des intentions adjacentes naturelles. Audit du 26 mars 2026 sur 100 prompts francais et anglais joues trois fois sur cinq moteurs. Mirakl est l'un des rares acteurs français de SaaS B2B a avoir construit une autorité globale dans la catégorie des plateformes marketplace. Notre audit maison de mars 2026 confirme cette position en anglais, ou la marque est associee aux rapports Forrester et Gartner et apparaît spontanement dans les réponses des [moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs). Mais il révèle aussi une asymetrie : la présence française grand public resté très en retrait, y compris sur des intentions adjacentes que la marque pourrait légitimement occuper. Cette étude propose une lecture honnête de cette asymetrie, fondée sur cent prompts joues trois fois sur cinq moteurs, le 26 mars 2026, et non sur un classement officiel. ## Pourquoi ce cas Mirakl est un cas atypique. La marque ne s'adresse pas au grand public, son cycle de vente est long, et son audience cible se compte en quelques milliers de decideurs en France et dans le monde. Pourtant, la manière dont les moteurs génératifs la traitent a un impact sur la catégorie tout entiere. Si Mirakl domine les réponses anglophones, l'ecosysteme français qui pourrait s'appuyer sur la marque pour parler de marketplaces, de modèles de plateformes ou de transformation e-commerce resté en retrait. C'est aussi un cas intéressant pour le SaaS B2B français en général : il montré qu'une excellente couverture analyste anglophone ne se traduit pas mecaniquement par une présence forte dans les AI Overviews françaises. ## Méthodologie L'audit est un panel maison rejouable, pas un rapport tiers, conçu selon le [framework PromptStack 4-Layers](/methodologie/promptstack-4-layers). Cent prompts ont été construits autour de cinq familles d'intention, en alternant français et anglais : plateforme marketplace pour distributeur ou industriel, modèle économique de marketplace, comparaison de solutions SaaS marketplace, prompts decisionnels DSI ou directeur e-commerce, et prompts adjacents sur le commerce unifié ou le drop ship. Chaque prompt a été joue trois fois sur ChatGPT Search, Perplexity, Google AI Overviews, Gemini et Bing Copilot, le 26 mars 2026, depuis une session non personnalisée. La citation a été codee selon trois niveaux : présence dans le corps, présence dans une liste structurée, et absence. La langue du prompt a été suivie en parallèle car elle structure fortement les résultats observes. Les limites assumees sont les suivantes : le panel ne capte pas les variantes verticales fines, par exemple distribution alimentaire ou industrie lourde ; il ne mesure pas la qualité percue de la réponse ; et il refletera une journee donnée, sensible a la derive des moteurs. ## Ce qu'on a observe Sur les prompts anglais, Mirakl est cité très fréquemment, parfois en première position. Les réponses associent souvent la marque aux rapports Forrester et Gartner, qui servent de caution analyste. Cette association beneficie d'une longue construction éditoriale et d'une présence régulière dans la presse SaaS internationale. Sur ces prompts, les concurrents principaux observes sont VTEX, ChannelEngine et certains modules natifs de Salesforce Commerce Cloud ou de SAP, mais Mirakl conserve une position de référence. Sur les prompts français grand public, la situation s'inverse. Une formulation comme comment fonctionne une marketplace en France ou pourquoi un site e-commerce ouvre une marketplace renvoie souvent vers Amazon, Cdiscount ou la Fnac comme exemples, sans que Mirakl soit mentionne comme infrastructure. La marque est presque invisible sur ces prompts, alors qu'elle pourrait légitimement y être citée comme moteur technologique d'une partie des acteurs evoques. Sur les prompts B2B français cibles, la situation s'amélioré. Les requêtes orientees directeur e-commerce, directeur marketplace, choix d'une solution SaaS marketplace pour distributeur, ou plateforme pour industriel B2B font remonter la marque, mais souvent derrière des références généralistes comme Salesforce ou SAP, qui beneficient d'une notoriete plus large. Mirakl apparaît alors comme une option spécialisée, ce qui est coherent avec son positionnement, mais cette présentation peut donner l'impression d'une option de second rang dans la lecture rapide d'un decideur. Sur les prompts adjacents commerce unifié, drop ship ou plateforme B2B2C, la présence est variable. Certaines formulations font apparaître Mirakl en bonne position, d'autres pas du tout. Les moteurs semblent chercher des sources qui combinent contexte vertical et nom de marque, et la matière disponible en français est plus rare qu'en anglais. | Famille de prompt | Mirakl cité | Concurrent dominant | Lecture | |---|---|---|---| | Anglais marketplace SaaS | Très fréquent | VTEX, modules Salesforce | Position de référence | | Français grand public | Rare | Amazon, Cdiscount cités comme exemples | Angle mort | | B2B français cible | Fréquent | Salesforce, SAP | Specialiste percu | | Adjacent commerce unifié | Variable | Solutions généralistes | Terrain a investir | ## Hypotheses sur le pourquoi La domination anglaise vient probablement d'un investissement long et constant dans la presse SaaS internationale, dans les programmes analystes Forrester et Gartner, et dans les conferences sectorielles. Les moteurs génératifs ont intègre cette densite et l'utilisent comme signal de crédibilité. Cette construction est très difficile a repliquer pour un concurrent francophone moins exposé en anglais. L'invisibilite française grand public a deux causes plausibles. D'abord, Mirakl a fait le choix produit de ne pas s'adresser au grand public, ce qui est légitime mais creuse mecaniquement l'angle mort. Ensuite, les moteurs génératifs français s'appuient sur des sources grand public, presse généraliste et blogs e-commerce, qui parlent peu de l'infrastructure technologique des marketplaces. Le résultat est une catégorie ou les exemples sont cités mais ou les moteurs sont absents du récit. La présence derrière Salesforce et SAP sur les prompts B2B français s'explique par l'effet plateforme généraliste. Les decideurs français formulent souvent leur requête avec un nom de suite globale en tête, ce qui pousse les moteurs a placer ces références en premier rideau. Une marque spécialisée comme Mirakl arrive donc dans un second temps, même lorsque la pertinence fonctionnelle est supérieure. ## Recommandations Investir une présence française plus visible dans la presse e-commerce et la presse SaaS, en cohérence avec une [fiche Wikidata multilingue solide](/tactiques/tactique-13-entites-wikidata). Les moteurs génératifs français ont besoin de sources françaises pour formuler des réponses confiantes. Multiplier les tribunes de dirigeants, les interviews et les analyses sectorielles françaises est probablement plus efficace que d'augmenter la production de contenu corporate. Construire un hub éditorial sur les modèles marketplace en français, en suivant le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). Sans viser le grand public, produire des contenus structurés sur les choix d'architecture, les modèles économiques et les retours d'expérience d'enseignes françaises permettrait aux moteurs de citer la marque sur les prompts les plus fréquents. Renforcer les retours d'expérience clients français publics. Les études de cas accessibles publiquement, avec métriques et chronologie, sont une matière première directement reutilisable par les moteurs génératifs. Cette zone est aujourd'hui sous-exploitee en français. Documenter le positionnement face aux suites généralistes. Construire une matière claire qui explique en quoi Mirakl complète ou remplace certaines briques de Salesforce Commerce Cloud ou de SAP, en evitant le jargon comparatif. Cette matière sert directement les prompts decisionnels français qui placent les suites généralistes en première position. Mettre en place un suivi croise français et anglais via le [monitoring en continu](/tactiques/tactique-10-monitoring-en-continu). La marque a la chance d'être lisible en anglais, mais le pilotage du [Citation Quality Score](/methodologie/citation-quality-score) français mérite un tableau de bord dédié, distinct du suivi anglophone, pour éviter qu'une bonne santé globale masque une derive française. ## Limites de l'étude Le panel de cent prompts équilibre français et anglais mais ne couvre pas finement les variantes verticales : distribution alimentaire, industrie lourde, B2B technique. Les résultats reflettent une journee, le 26 mars 2026, et les moteurs derivent typiquement entré sept et trente jours, ce qui peut deplacer les positions observees. Le SaaS B2B est aussi un secteur ou les rapports analystes peuvent être publiés a des dates qui modifient brutalement les sources utilisées par les moteurs ; un audit conduit après la publication d'un nouveau Magic Quadrant pourrait donner une image différente. Enfin, l'étude ne mesure pas la qualité de la réponse au-dela de la citation, ce qui est une limite réelle pour une marque B2B dont la valeur tient autant a la manière dont elle est décrite qu'a sa simple présence. Les conclusions doivent être lues comme un signal pilotable, pas comme une mesure exhaustive de la position de Mirakl. ### FAQ **Pourquoi Mirakl est-il mieux cite en anglais qu'en francais ?** L'autorite construite par les rapports Forrester et Gartner est principalement en anglais. Les moteurs generatifs s'appuient sur ces sources pour les prompts B2B SaaS. Le francais ne dispose pas d'un corpus equivalent, donc la marque y est sous-representee. **Sur quels prompts francais Mirakl est-il le mieux cite ?** Sur les prompts B2B precis comme plateforme marketplace pour grand compte ou solution marketplace SaaS pour retailer, la presence remonte. Sur les prompts grand public comme ouvrir une marketplace ou outil pour vendeur en ligne, elle est beaucoup plus faible. **Quels concurrents apparaissent face a Mirakl dans les reponses ?** Sur les prompts B2B francais, Salesforce et SAP apparaissent souvent en premier. Sur les prompts marketplace specialises, Marello, VTEX et Spryker reviennent. La concurrence est plus fragmentee qu'en anglais. **Quelle methodologie a ete suivie pour cet audit ?** 100 prompts batis autour de quatre familles d'intention (B2B francais, B2B anglais, grand public francais, adjacents), joues trois fois sur cinq moteurs le 26 mars 2026, en francais et en anglais selon la formulation. **Quel correctif prioritaire pour Mirakl en France ?** Construire un corpus francais cite, soit en publiant des etudes de cas francaises detaillees avec Carrefour, Decathlon, Conforama, soit en obtenant des mentions dans des sources francaises a fort grounding (LSA, journaux economiques, etudes de cabinet en francais). **Cette asymetrie linguistique est-elle frequente ?** Oui, sur de nombreuses marques B2B SaaS d'origine francaise dont la communication s'est anglicisee. La marque est mieux citee en anglais qu'en francais, ce qui penalise sa presence sur le marche domestique malgre une autorite globale forte. ### Sources - [Mirakl, présentation institutionnelle](https://www.mirakl.com/fr/) - [Forrester, études plateformes marketplace](https://www.forrester.com/) - [Gartner, recherche e-commerce](https://www.gartner.com/en) --- ## Doctolib face a la citation IA : monopole confortable, exposition cachee - URL : https://geo-academy.fr/etudes-de-cas/doctolib - Description : Audit maison de la présence de Doctolib sur cinq moteurs génératifs en mars 2026. Forte domination sur les requêtes transactionnelles françaises, fragilite réelle des que la formulation devient comparative. - Auteur : theo-roux - Publie le : 2026-03-12 - Tags : etude de cas, sante, share of answer, audit GEO, doctolib **TL;DR.** Doctolib est cite sur la quasi-totalite des prompts transactionnels francais lies a la prise de rendez-vous medical, ce qui semble traduire une domination consolidee. Mais des qu'un prompt explicite la comparaison avec Maiia, KelDoc ou Qare, la marque perd la position de premiere citation dans pres de la moitie des cas. Audit du 12 mars 2026 sur 80 prompts joues trois fois sur cinq moteurs. Doctolib occupe en France une position si dominante sur la prise de rendez-vous médicaux qu'il est devenu difficile de penser cette tache sans le citer. Notre audit maison de mars 2026 confirme cette intuition sur une majorité de prompts, tout en revelant un angle mort intéressant : des que la requête devient comparative, la marque cesse d'être la réponse évidente. Cette étude propose une lecture honnête de cette double réalité, en s'appuyant sur les [premières métriques de présence IA](/fondations/lecon-07-mesurer-presence-ia). Elle ne se base pas sur un panel public ni sur un rapport tiers, mais sur quatre-vingts prompts joues trois fois chacun sur cinq moteurs, le 12 mars 2026. Les chiffres restent volontairement imprecis car le but est de degager des tendances reproductibles, pas de produire une note de marché. ## Pourquoi ce cas Doctolib est l'un des rares cas français ou un acteur privé concentre une grande partie d'une intention de recherche grand public. Pour le secteur de la santé numérique, la manière dont les moteurs génératifs traitent cette concentration est stratégique. Si l'IA reproduit le monopole, les concurrents locaux comme Maiia, KelDoc ou Qare deviennent invisibles dans les nouvelles interfaces. Si elle introduit une diversité artificielle ou erronee, c'est l'expérience patient qui se dégradé. Comprendre le comportement réel des moteurs sur ce cas permet aux acteurs français de l'e-santé d'arbitrer entré defense, attaque et investissement éditorial cible. ## Méthodologie Le panel utilisé est un audit maison rejouable, pas une étude exclusive, conçu selon le [framework PromptStack 4-Layers](/methodologie/promptstack-4-layers). Quatre-vingts prompts ont été construits autour de quatre familles d'intention : la prise de rendez-vous generique, la recherche de specialiste, la comparaison entré plateformes, et les questions adjacentes comme la teleconsultation, le remboursement ou l'annulation. Chaque prompt a été joue trois fois sur ChatGPT Search, Perplexity, Google AI Overviews, Gemini et Bing Copilot, le 12 mars 2026, en français, depuis une session non personnalisée. Une citation est comptabilisee lorsque le nom Doctolib apparaît dans le corps de la réponse, qu'il y ait ou non un lien sortant vers le domaine, en cohérence avec le [Citation Quality Score](/methodologie/citation-quality-score). Les résultats ont ensuite été normalises par moteur et par famille de prompt, sans appliquer de ponderation marketing. Cette démarche présente trois limites assumees. Elle reflete une journee donnée, sans suivi longitudinal. Elle ne capte pas les variations geolocalisees fines a l'échelle d'une ville. Et elle ne prend pas en compte les moteurs génératifs integres a des assistants vocaux ou a des applications tierces, qui pourraient afficher d'autres comportements. ## Ce qu'on a observe La première observation est sans surprise : sur les prompts strictement transactionnels comme comment prendre rendez-vous chez un médecin généraliste en France ou trouver un dentiste disponible cette semaine, Doctolib est cité presque systématiquement, et le plus souvent en première position de la réponse. Les moteurs traitent le service comme une infrastructure quasi institutionnelle, au même titre que Ameli pour la carte vitale. Le verbe doctoliber commence même a apparaître sporadiquement dans les reformulations. La deuxième observation est plus nuancee. Sur les prompts mentionnant explicitement un concurrent, par exemple Doctolib ou Maiia pour mes rendez-vous, ou alternative a Doctolib pour cabinet médical, les réponses se diversifient nettement. Maiia, KelDoc et Qare apparaissent souvent, parfois même avant Doctolib lorsque la formulation insiste sur une comparaison de fonctionnalites pro. Sur ce sous-panel, la position de première citation est perdue dans une part significative des réponses, sans que l'on puisse parler d'effondrement. La troisième observation concerne les prompts adjacents : remboursement de teleconsultation, annulation sans frais, certificat médical en ligne. La marque y est moins centrale et certains moteurs renvoient plutôt vers Ameli, Service Public ou des sites de presse santé. Cette zone constitue un terrain ou un concurrent spécialisé pourrait construire une autorité sectorielle. | Famille de prompt | Doctolib cité | Position dominante | Concurrents visibles | |---|---|---|---| | Transactionnel pur | Très fréquent | Oui | Rare | | Specialiste par métier | Fréquent | Souvent | Maiia, KelDoc ponctuels | | Comparatif explicite | Variable | Pas systématique | Maiia, KelDoc, Qare | | Adjacent administratif | Faible | Non | Ameli, Service Public | ## Hypotheses sur le pourquoi La domination sur les prompts transactionnels s'explique probablement par la masse de signaux entrants, conforme aux principes du [Brand Context Optimization](/tactiques/tactique-04-brand-context-optimization). Doctolib agrege depuis des années des mentions presse, des avis utilisateurs, des références institutionnelles et un volume de pages indexees qui couvre la quasi-totalité des praticiens français. Pour un moteur génératif, l'association entré prendre rendez-vous médecin et la marque est un raccourci statistique évident. La fragilite sur les comparatifs vient probablement d'un autre mecanisme. Lorsque l'utilisateur cité explicitement un concurrent, le moteur passé en mode comparaison structurée. Il va chercher des sources qui confrontent les acteurs, typiquement des comparatifs presse, des billets de blog spécialisés ou des pages aide-choisir-un-logiciel-médical. Sur ce terrain, Doctolib n'a pas la même densite éditoriale que sur la requête principale. Maiia et KelDoc, qui ciblent davantage le marché professionnel, beneficient au contraire de contenus orientes fonctionnalites et tarifs, plus faciles a reutiliser pour un comparatif. La faiblesse sur les prompts adjacents tient sans doute a un choix produit. Doctolib s'est concentré sur la prise de rendez-vous et la teleconsultation, et a laisse le terrain administratif aux acteurs publics. Cette spécialisation est saine sur le plan business mais elle privé la marque de présence sur tout un univers de prompts ou un patient cherche d'abord a comprendre une démarche avant de prendre un rendez-vous. ## Recommandations Renforcer la couverture éditoriale comparative via le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). Publier sur le site institutionnel, et non sur la marketplace, des pages de positionnement claires face a Maiia, KelDoc et Qare, en assumant un ton factuel. Ces pages servent de matière première aux moteurs lorsqu'ils traitent un prompt comparatif. Le but n'est pas de gagner du SEO classique mais d'offrir une source citable. Investir le terrain des prompts adjacents. Construire un hub éditorial sur le remboursement, l'annulation, le certificat médical et les démarches connexes, en partenariat éventuel avec des medecins reconnus. Sans cette présence, les moteurs continueront a renvoyer vers Ameli, ce qui est légitime mais coupe la marque d'une partie du parcours patient. Travailler les citations en sources tierces et la [présence sur Wikidata](/tactiques/tactique-13-entites-wikidata). Encourager des reprises dans des médias santé grand public, des podcasts médicaux et des publications professionnelles. Les moteurs génératifs valorisent les reformulations extérieures plus que les pages corporate, et c'est sur ce levier que Maiia et KelDoc grignotent du terrain. Mettre en place un suivi mensuel de share of answer via le [monitoring en continu](/tactiques/tactique-10-monitoring-en-continu). Sans tableau de bord régulier, l'erosion éventuelle sur les prompts comparatifs ne se verra pas avant qu'elle ne soit installee. Un audit interne reproductible, aligne sur la méthodologie décrite ici, suffit pour produire un signal pilotable. Tester la présence sur les assistants vocaux. Une partie de l'usage prise de rendez-vous médical va migrer vers des interfaces vocales en 2026 et 2027. La manière dont Siri, Alexa ou les assistants embarques dans les voitures traitent cette intention resté un angle mort de cet audit et mérite une série dédiée. ## Limites de l'étude Ce panel ne constitue pas une mesure exhaustive. Il porte sur quatre-vingts prompts, ce qui est suffisant pour degager des tendances mais resté loin d'une cartographie complète des intentions santé. Il a été joue le 12 mars 2026 et les moteurs génératifs derivent typiquement entré sept et trente jours, ce qui signifie qu'une partie des observations peut s'inverser ou s'attenuer sur une fenêtre courte. Le choix des prompts comparatifs introduit aussi un biais, car en mentionnant les concurrents on force le moteur a les inclure ; un panel sans citation explicite donnerait probablement une image plus monopolistique. Enfin, l'audit ne distingue pas la qualité de la réponse au-dela de la présence du nom, ce qui est une limite importante : être cité sans lien et sans contexte ne produit pas la même valeur qu'une mention argumentee. Les conclusions présentées ici doivent donc être prises pour ce qu'elles sont, des signaux a confronter au suivi interne de la marque et a des panels externes plus larges. ### FAQ **Doctolib est-il cite sur tous les prompts medicaux ?** Sur les prompts transactionnels francais (prendre rendez-vous medecin, dermatologue Paris, dentiste Lyon), Doctolib est cite dans la quasi-totalite des reponses. Sur les prompts purement informationnels ou comparatifs, la presence chute nettement. **Quels sont les concurrents qui apparaissent face a Doctolib dans les reponses IA ?** Maiia, KelDoc et Qare sont les concurrents qui apparaissent le plus frequemment dans les comparatifs explicites. Sur les prompts adjacents teleconsultation ou medecine en ligne, Livi et MesDocteurs reviennent aussi. **Pourquoi parler d'exposition cachee si Doctolib domine ?** La domination est reelle sur les transactionnels mais les moteurs reformulent souvent la reponse sans renvoyer vers une URL precise. La citation perd alors sa valeur commerciale, ce que la mesure brute du Share of Answer ne capte pas. **Quelle methodologie a ete suivie ?** 80 prompts construits autour de quatre familles d'intention (transactionnel, informationnel, comparatif, adjacent), joues trois fois sur cinq moteurs le 12 mars 2026, en francais, depuis une session non personnalisee. **Quel correctif prioritaire pour Doctolib face a cette etude ?** Renforcer la presence sur les prompts comparatifs ou la marque perd la position de premiere citation, en publiant des contenus de comparaison structuree avec les concurrents directs (Maiia, KelDoc, Qare) et en travaillant le grounding entite. **Cette etude est-elle reproductible ?** Oui. Le panier de 80 prompts est documente dans la methodologie et peut etre rejoue par toute equipe equipee d'un acces aux cinq moteurs cibles. Les chiffres sont des estimations issues du panel test, pas une etude scientifique formelle. ### Sources - [Doctolib, présentation institutionnelle 2025](https://about.doctolib.fr/) - [Maiia, espace presse](https://www.maiia.com/presse) - [KelDoc, page entreprise](https://www.keldoc.com/qui-sommes-nous) --- ## Qonto sur les moteurs génératifs : une neobanque pro lisible mais pas seule - URL : https://geo-academy.fr/etudes-de-cas/qonto - Description : Audit maison de la présence de Qonto sur cinq moteurs génératifs en fevrier 2026. Bonne reconnaissance comme acteur de référence des PME françaises, concurrence réelle et croissante de Shine, Revolut Business et BforBank Pro. - Auteur : theo-roux - Publie le : 2026-02-22 - Tags : etude de cas, finance, neobanque, share of answer, qonto **TL;DR.** Qonto est cite dans une large majorite des prompts francais lies a la neobanque pour PME et freelance, ce qui confirme une signature de marque etablie. Sur les comparatifs explicites, Shine et Revolut Business apparaissent quasi systematiquement aux cotes de Qonto, parfois avant. La presence sur la comptabilite, la facturation electronique et l'integration logicielle reste plus faible que sur les prompts compte pro. Audit du 22 fevrier 2026 sur 70 prompts. Qonto est devenu en quelques années l'un des réflexes français sur la requête compte pro pour PME ou freelance. Notre audit maison de fevrier 2026 confirme cette installation dans le paysage cité par les [moteurs génératifs](/fondations/lecon-02-cartographie-moteurs-generatifs), mais il met aussi en évidence un environnement plus competitif qu'il n'y paraît. Shine, Revolut Business et BforBank Pro apparaissent régulièrement, et certains terrains adjacents comme la facturation électronique ou la comptabilite restent ouverts a d'autres marques. Cette étude propose une lecture nuancee, fondée sur soixante-dix prompts joues trois fois sur cinq moteurs, le 22 fevrier 2026, en s'appuyant sur le [framework PromptStack 4-Layers](/methodologie/promptstack-4-layers). ## Pourquoi ce cas La neobanque pro française est l'un des secteurs ou les moteurs génératifs jouent un rôle discret mais réel dans la génération de prospects qualifies. Un freelance qui cherche neobanque pro France ou un dirigeant de PME qui formule comparaison comptes pros 2026 va de plus en plus passer par une interface générative avant de cliquer sur un comparatif ou un site de marque. Comprendre comment Qonto, leader percu, est traite par ces moteurs permet a la marque comme a ses concurrents d'arbitrer leurs investissements éditoriaux. Le sujet est aussi intéressant parce que Qonto a investi tôt le contenu, alors que des concurrents comme Revolut beneficient d'une notoriete internationale qui peut surclasser un travail éditorial purement français. ## Méthodologie Il s'agit d'un audit maison rejouable, pas d'un rapport tiers. Soixante-dix prompts ont été construits autour de cinq familles d'intention : ouverture de compte pro, comparaison de neobanques, freelance et statut juridique, comptabilite et facturation électronique, et fonctionnalites avancees comme les cartes virtuelles ou les sous-comptes. Chaque prompt a été joue trois fois sur ChatGPT Search, Perplexity, Google AI Overviews, Gemini et Bing Copilot, le 22 fevrier 2026, en français, depuis une session non personnalisée. La présence de Qonto a été codee selon trois niveaux : citation simple dans le corps de la réponse, citation argumentee avec contexte fonctionnel, et absence, en cohérence avec le [Citation Quality Score](/methodologie/citation-quality-score). Aucune ponderation marketing n'a été appliquée. Cette méthodologie a des limites assumees : la fenêtre temporelle est courte, le moteur peut deriver dans les semaines suivantes, et l'echantillon de prompts ne couvre pas les niches comme l'auto-entrepreneur en outre-mer ou la holding patrimoniale. ## Ce qu'on a observe Sur les prompts d'ouverture de compte pro generique, Qonto est cité très fréquemment, souvent en première position, et parfois même présente comme la référence par defaut pour une PME française. Cette domination est plus marquee sur ChatGPT Search et Perplexity que sur Gemini, qui semble avoir une préférence légère pour Revolut Business sur certaines formulations. Sur les prompts comparatifs explicites, le paysage devient plus dense. Shine apparaît quasi systématiquement, avec un discours fréquent autour de la simplicite, des outils comptables integres et de l'ancrage français. Revolut Business est cité presque a parite avec Qonto, en particulier sur les prompts qui evoquent l'international, les cartes multi-devises ou la mobilite. BforBank Pro, plus récent dans l'esprit des moteurs, est cité plus ponctuellement, mais sa présence augmente sur les prompts qui melent banque traditionnelle et offre digitale. Sur les prompts dédiés au freelance, en particulier ceux qui mentionnent micro-entreprise ou auto-entrepreneur, Shine reprend une partie du terrain. Qonto est cité, mais souvent dans une seconde moitie de réponse, comme une option plus orientee structurés. Le terrain le plus intéressant est celui des prompts adjacents : facturation électronique 2026, logiciel de comptabilite pour PME, intégration banque et comptabilite. Sur ces requêtes, Qonto est cité mais rarement en position centrale. Les moteurs renvoient plutôt vers des acteurs comme Pennylane, Indy ou des références plus généralistes. C'est une zone stratégique car la conformite a la facturation électronique a transforme l'intention de recherche entre 2024 et 2026. | Famille de prompt | Qonto cité | Concurrent dominant alterne | Lecture | |---|---|---|---| | Ouverture compte pro | Très fréquent | Aucun stable | Position confortable | | Comparatif explicite | Fréquent | Shine, Revolut Business | Concurrence active | | Freelance et micro | Fréquent | Shine | Terrain partage | | Facturation et compta | Variable | Pennylane, Indy | Zone a investir | ## Hypotheses sur le pourquoi La forte présence sur le compte pro generique vient probablement d'un travail éditorial ancien et constant. Qonto a investi tôt dans des guides longs, des pages segmentees par profession et des contenus sur le passage en société. Les moteurs génératifs ont pu apprendre une association forte entré la marque et la catégorie, renforcee par les mentions presse françaises. La parite avec Revolut Business sur les comparatifs s'explique par une autre dynamique. Revolut beneficie d'un volume de mentions internationales considérable, en anglais, qui se diffuse dans les modèles malgre la requête française. Les moteurs ont du mal a séparer Revolut grand public de Revolut Business, ce qui produit parfois des réponses ou la marque est citée de manière un peu floue, mais resté présente. Pour Qonto, cette comparaison est mecaniquement difficile a contrer par du contenu français seul. L'effacement relatif sur la facturation électronique est probablement le signal le plus important. Qonto a une offre dans ce domaine, mais l'autorité éditoriale qui se construit autour de la facturation électronique 2026 a été largement captee par des acteurs spécialisés et par la presse comptable. Les moteurs reproduisent cette repartition, ce qui suggere une fenêtre d'investissement. ## Recommandations Construire une autorité éditoriale française sur la facturation électronique en appliquant le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). Publier des guides actualises, des FAQ techniques sur les portails de dematerialisation et des comparatifs avec les outils comptables spécialisés. Cette zone est encore mouvante en 2026 et la marque qui produit la meilleure synthèse française sera citée. Répondre a la pression Shine sur le freelance. Construire des pages de positionnement claires pour le freelance et la micro-entreprise, avec des éléments concrets sur les frais, les outils comptables integres et les délais d'ouverture. Les moteurs reformulent ces pages directement dans leurs réponses. Densifier la présence en sources tierces françaises et la [présence sur Wikidata](/tactiques/tactique-13-entites-wikidata). Encourager des reprises dans la presse économique, les podcasts d'entrepreneuriat et les chaînes spécialisées TPE. Le travail sur les sources externes a un impact direct sur la manière dont les moteurs equilibrent Qonto, Shine et Revolut Business. Surveiller la derive sur Gemini via le [monitoring en continu](/tactiques/tactique-10-monitoring-en-continu). Le moteur semble traiter différemment les neobanques selon la formulation, avec une légère préférence pour Revolut Business sur certaines requêtes. Mettre en place un suivi spécifique a Gemini permettrait d'identifier rapidement une éventuelle bascule de share of answer. Tester l'angle international. Les prompts qui evoquent compte pro pour entreprise française avec activité a l'étranger ou neobanque pour startup paneuropeenne sont mal couverts par Qonto. Une série de contenus dédiés a ces cas pourrait récupérer du terrain face a Revolut Business. ## Limites de l'étude Le panel de soixante-dix prompts est suffisant pour cartographier les grandes intentions mais ne couvre pas finement chaque niche professionnelle. Les résultats reflettent une journee donnée, le 22 fevrier 2026, et les moteurs derivent typiquement entré sept et trente jours, ce qui peut deplacer les positions observees. Le codage de la citation est binaire au premier niveau, ce qui ne rend pas justice a la qualité de la mention : une citation argumentee de Qonto, même en deuxième position, peut avoir plus de valeur qu'une citation rapide en tête de liste. Enfin, les moteurs ont été testés en session non personnalisée, alors que la majorité des utilisateurs français interrogent ces interfaces avec un historique et un contexte qui peuvent inflechir les réponses. Les conclusions tirees ici servent a alimenter une réflexion stratégique, pas a remplacer un suivi opérationnel quotidien. ### FAQ **Qonto est-il toujours cite en premier sur les prompts neobanque pro ?** Pas toujours. Sur les prompts neobanque pour freelance, Qonto est generalement en premiere position. Sur les prompts compte pro PME, Shine et Revolut Business arrivent regulierement avant Qonto, parfois en tete. **Quels concurrents apparaissent face a Qonto dans les reponses IA ?** Shine et Revolut Business sont les concurrents les plus systematiques sur les comparatifs explicites. BforBank Pro, Boursorama Pro et Anytime apparaissent aussi sur les prompts adjacents compte professionnel ou banque en ligne pro. **Pourquoi Qonto est-il moins central sur les prompts comptabilite ?** Les moteurs renvoient frequemment vers Pennylane, Sellsy, Quickbooks ou des cabinets comptables sur ces prompts. Qonto n'apparait pas comme une solution comptabilite premiere, ce qui constitue une zone de presence a construire. **Quelle methodologie pour cet audit ?** 70 prompts batis autour de quatre familles d'intention (compte pro, comparatifs, comptabilite et integration, prompts adjacents PME), joues trois fois sur cinq moteurs le 22 fevrier 2026 en francais, depuis une session non personnalisee. **Quel correctif prioritaire identifie pour Qonto ?** Renforcer la presence sur les prompts comptabilite et integration via des partenariats ecrits explicites avec Pennylane et Sellsy, des contenus de comparaison structuree et un meilleur grounding sur les prompts adjacents dirigeant PME. **Cette etude est-elle reproductible ?** Oui. Le panier de 70 prompts est documente et les chiffres sont des estimations issues du panel test, non une etude scientifique formelle. Toute equipe peut rejouer le panier sur les memes moteurs et comparer les resultats. ### Sources - [Qonto, page institutionnelle](https://qonto.com/fr/about-us) - [Shine, présentation](https://www.shine.fr/qui-sommes-nous) - [Revolut Business, France](https://www.revolut.com/fr-FR/business/) --- # Outils GEO ## Ahrefs Brand Radar, le module GEO intègre a la suite Ahrefs - URL : https://geo-academy.fr/outils/ahrefs-brand-radar - Description : Fiche outil Ahrefs Brand Radar. Lance fin 2024, custom prompt tracking depuis decembre 2025, base de 320 millions de prompts, six plateformes IA. Forces, limites et intégration dans la suite Ahrefs. - Auteur : camille-lefebvre - Publie le : 2026-04-22 - Tags : outils, monitoring, ahrefs, suite-seo, geo **TL;DR.** Ahrefs Brand Radar est le module GEO integre a la suite Ahrefs, lance fin 2024 et enrichi en decembre 2025 du custom prompt tracking. Il s'appuie sur une base de 320 millions de prompts et couvre six plateformes IA (ChatGPT, Perplexity, AI Overviews, Bing Copilot, Gemini, Claude). Inclus dans les plans Ahrefs eligibles, c'est la solution naturelle pour les equipes deja clientes Ahrefs qui veulent mutualiser SEO classique et GEO. Ahrefs a lance Brand Radar fin 2024, puis a ajoute en decembre 2025 une fonctionnalite clé, le custom prompt tracking. Le positionnement est clair. Le module [GEO](/fondations/lecon-01-quest-ce-que-le-geo) d'une suite SEO majeure, qui mutualise les usages avec les outils de recherche classique d'Ahrefs. Pour une équipe déjà cliente Ahrefs, c'est une solution naturelle, et les chiffres revendiques par l'éditeur sont sérieux. Une base de 320 millions de prompts, six plateformes IA couvertes, et une intégration native dans la suite. Pas d'outil a déployer, pas de connexion supplémentaire. ## Ce que fait l'outil Brand Radar propose plusieurs modes d'utilisation. Le premier est la consultation d'une base de prompts pre-existants, alimentee par Ahrefs a partir de signaux d'usage et d'analyses de tendances. L'utilisateur peut explorer les prompts associes a une thématique, voir quelles marques sont citées dans les réponses générées par les six plateformes IA couvertes, et identifier des opportunités de positionnement. Cette base massive de 320 millions de prompts est l'un des arguments differenciateurs les plus forts de l'outil. Le deuxième mode est le custom prompt tracking, ouvert depuis decembre 2025. L'utilisateur déclare ses propres [prompts a suivre](/fondations/lecon-08-prompt-set-de-base), et l'outil les rejoue régulièrement sur les six plateformes IA couvertes. Cette fonctionnalite met Ahrefs a niveau avec [Profound](/outils/profound) et [Peec.ai](/outils/peec-ai) sur la dimension [monitoring continu](/tactiques/tactique-10-monitoring-en-continu), tout en conservant l'avantage de l'intégration dans la suite Ahrefs. Le troisième mode est la consultation des données de marque. Brand Radar permet de déclarer une marque et d'obtenir une vue agregee de sa présence dans les réponses IA, avec une comparaison concurrentielle automatique. Les indicateurs portent sur le volume de citations, l'évolution dans le temps et la repartition par plateforme. La couverture sur six moteurs est plus large que la moyenne du marché, qui se limite souvent a quatre. ## Sous le capot La méthodologie d'Ahrefs Brand Radar combine deux approches. D'un côté, une base de données pre-existante de prompts et de réponses agregees par Ahrefs, qui permet une exploration immédiate sans configuration. De l'autre, le custom prompt tracking qui rejoue les prompts declares par l'utilisateur a fréquence configuree. L'agregation des données beneficie de l'infrastructure Ahrefs, déjà eprouvee sur le crawl web et le suivi de mots clés. La détection des citations s'appuie sur une combinaison de détection d'URL et de reconnaissance de mention textuelle, similaire aux autres acteurs du marché. La couverture des six plateformes ChatGPT, Perplexity, Google AI Overviews, Bing Copilot, Gemini et Claude est un atout. Peu de plateformes du marché offrent une couverture aussi large dans une même interface. L'éditeur ne communique pas en détail sur la fréquence exacte de rejeu selon les plans Ahrefs sous jacents, ce qui laisse une zone d'incertitude. Les utilisateurs sur des plans Ahrefs Standard ou Advanced disposent en général d'une granularite suffisante pour un suivi mensuel. Les utilisateurs sur des plans Enterprise beneficient d'options plus agressives. ## Forces La première force est l'intégration. Pour une équipe déjà cliente Ahrefs, Brand Radar n'est pas un outil supplémentaire a déployer, a payér separement et a former. C'est un onglet de plus dans une interface déjà maîtrisée. Cette logique de suite tout-en-un est un argument concret pour les agences et les équipes Search structurées. Le passage du suivi de mots clés classique a la mesure GEO se fait sans rupture de workflow. La deuxième force est la profondeur de la base de prompts. 320 millions de prompts indexes, c'est un volume rarement atteint dans la catégorie. L'utilisateur peut explorer une thématique sans avoir a entretenir lui même un panier complet, ce qui acceler l'exploration et la découverte d'opportunités. Pour une marque qui veut comprendre rapidement le paysage IA d'un secteur, c'est un point de départ precieux. La troisième force est l'ajout du custom prompt tracking en decembre 2025. Cette fonctionnalite met Brand Radar a niveau avec les plateformes spécialisées sur la dimension monitoring continu. La combinaison base massive plus suivi personnalisé est rare et apporte une vraie valeur. La couverture de six moteurs renforce encore cette force, peu de concurrents allant aussi loin sur Claude ou Gemini. ## Limites La première limite tient au modèle économique. Brand Radar n'est pas autonome, il s'inscrit dans un plan Ahrefs eligible. Pour une équipe qui ne souhaite pas devenir cliente Ahrefs, ou qui n'a pas l'usage des outils SEO classiques de la suite, le ticket réel est le prix du plan Ahrefs sous jacent. Sur ce critere, des plateformes spécialisées comme Peec.ai ou Otterly.AI restent plus simples a justifier en standalone. La deuxième limite est l'absence de simulation fan-out native. Les moteurs génératifs, en particulier Google AI Overviews et Perplexity, decomposent souvent une requête utilisateur en plusieurs [sous-requêtes selon le query fan-out](/tactiques/tactique-01-anatomie-query-fan-out) pour assembler la réponse. Anticiper ce fan-out est un sujet émergent du GEO, et les plateformes les plus avancees commencent a proposér des simulations de cette decomposition. Ahrefs Brand Radar ne propose pas cette fonctionnalite a ce jour, ce qui limite la finesse du diagnostic éditorial sur les requêtes complexes. La troisième limite porte sur les dashboards executifs. Brand Radar est competent, mais Profound conserve une longueur d'avance sur la production de livrables pour direction générale. Les vues d'Ahrefs sont pensées pour des analystes Search, pas pour un comite de direction. Pour une équipe qui doit rendre des comptes en haut de l'organigramme, Brand Radar livre la matière mais la mise en forme finale demande un travail supplémentaire. ## Tarif et conditions Brand Radar est inclus dans les plans Ahrefs eligibles. La grille tarifaire Ahrefs resté la référence, avec des plans qui demarrent autour des plans Lite et Standard pour des usages individuels et qui montent jusqu'aux plans Enterprise pour les agences et les grands comptes. La fonctionnalite custom prompt tracking, ouverte en decembre 2025, peut être soumise a des conditions d'eligibilite spécifiques selon le plan retenu. Pour un client Ahrefs existant, l'acces a Brand Radar ne demande pas de négociation contractuelle séparée, ce qui est un avantage non négligeable. ## Pour qui Brand Radar est l'option naturelle pour toute équipe déjà cliente Ahrefs. La logique mutualisation joue immédiatement, et l'outil dispense d'un investissement supplémentaire dans une plateforme spécialisée. Les agences SEO qui pilotent un portefeuille de clients sur Ahrefs y trouveront une extension coherente de leur suivi. Les marques mid-market et grand compte avec un usage Ahrefs établi y verront un complement gratuit ou peu couteux a leur licence existante. A l'inverse, pour une équipe qui n'utilisé pas Ahrefs et qui n'a pas vocation a le devenir, Brand Radar n'est pas le bon point d'entree. Le ticket effectif est trop élevé si l'on n'utilisé pas les autres modules de la suite. Sur ce profil, [Peec.ai](/outils/peec-ai) pour le mid-market, [Otterly.AI](/outils/otterly-ai) pour l'entry-level ou [Profound](/outils/profound) pour le grand compte sont des alternatives plus alignees. ## Verdict Note 8.0 sur 10. Ahrefs Brand Radar est une bonne réponse pour les équipes qui vivent déjà dans l'ecosysteme Ahrefs. La base de 320 millions de prompts, la couverture de six plateformes IA et l'ajout du custom prompt tracking en decembre 2025 en font un outil sérieux et competitif. Le retrait porte sur la dépendance au plan Ahrefs sous jacent, sur l'absence de simulation fan-out native et sur des dashboards executifs en retrait par rapport a Profound. Pour un client Ahrefs, c'est un choix évident. Pour les autres, le calcul dépend du resté de la suite. ### FAQ **Ahrefs Brand Radar est-il un outil autonome ?** Non, Brand Radar n'est pas vendu seul. Le module est inclus dans les plans Ahrefs eligibles. Une equipe non cliente Ahrefs ne peut pas y acceder sans souscrire la suite complete. **Combien coute Ahrefs Brand Radar ?** Le module est inclus dans les plans Ahrefs eligibles, sans surcout direct. Le tarif depend du plan Ahrefs souscrit, qui demarre autour de 129 USD/mois pour les premiers paliers et monte selon les volumes. **Quelles plateformes IA Brand Radar couvre-t-il ?** Six plateformes: ChatGPT, Perplexity, Google AI Overviews, Bing Copilot, Gemini et Claude. C'est une des couvertures les plus larges du marche, comparable a Profound. **Quelle est la difference entre Brand Radar et Profound ?** Brand Radar est integre a la suite Ahrefs, tandis que Profound est une plateforme autonome focalisee GEO. Profound offre des dashboards executifs plus profonds, Brand Radar offre la mutualisation avec les outils Ahrefs SEO. **Le custom prompt tracking permet-il de suivre tous les prompts ?** Le custom prompt tracking permet de suivre des prompts specifiques declares par l'utilisateur, en complement de la base existante. La granularite et la frequence de rejeu varient selon le plan Ahrefs sous-jacent. **Quel est le principal manque de Brand Radar ?** L'absence de simulation fan-out native pour anticiper les sous-requetes generees par AI Mode, et une profondeur d'analyse executive en retrait par rapport a Profound sur les dashboards. ### Sources - [Ahrefs Brand Radar, page produit](https://ahrefs.com/brand-radar) — Ahrefs, 2026 - [Ahrefs adds custom prompt tracking to Brand Radar](https://ahrefs.com/blog/brand-radar-custom-prompts) — Ahrefs blog, decembre 2025 - [Ahrefs Brand Radar review](https://searchengineland.com/ahrefs-brand-radar-review) — Search Engine Land, 2026 --- ## Bing AI Performance, le rapport gratuit que Microsoft livre aux webmasters - URL : https://geo-academy.fr/outils/bing-ai-performance - Description : Fiche outil sur le rapport AI Performance de Bing Webmaster Tools, lance en preview publique le 9 fevrier 2026. Données first-party de citations Copilot et Bing AI, sans echantillonnage, sans cout. Forces, limites et complementarite. - Auteur : camille-lefebvre - Publie le : 2026-04-02 - Tags : outils, monitoring, gratuit, bing, first-party, geo **TL;DR.** Bing AI Performance est le rapport gratuit lance le 9 fevrier 2026 dans Bing Webmaster Tools. Pour la premiere fois, un moteur generatif majeur livre aux webmasters des donnees first-party authentiques sur les citations sortantes dans Copilot et la recherche IA de Bing, sans echantillonnage et sans cout. Le perimetre se limite au monde Microsoft, mais la qualite et la granularite par requete et par page citee en font un complement systematique. Microsoft a annonce le 9 fevrier 2026 sur le blog officiel Bing la mise en preview publique d'un rapport AI Performance dans Bing Webmaster Tools. C'est une annonce qui change la donné sur un point précis. Pour la première fois, un [moteur génératif majeur](/fondations/lecon-02-cartographie-moteurs-generatifs) livre aux webmasters des données first-party sur les citations qui sortent dans Copilot et la recherche IA de Bing. Pas d'estimation, pas d'echantillonnage, pas de [panier de prompts a entretenir](/fondations/lecon-08-prompt-set-de-base). Les requêtes réelles, les pages citées, gratuitement. ## Ce que fait l'outil Le rapport AI Performance s'intègre dans Bing Webmaster Tools, l'outil gratuit que Microsoft propose depuis des années pour le suivi du referencement classique. La nouvelle section présente trois vues principales. La première liste les requêtes IA pour lesquelles le site a été cité dans une réponse générative de Bing ou Copilot. La deuxième liste les pages du site qui ont été récupérées par le moteur génératif et integrees dans les réponses. La troisième croise les deux dimensions, avec une matrice qui permet de voir quelle page est citée pour quelle requête IA. La granularite est celle d'un outil de webmaster. Pour chaque requête, on dispose d'un volume d'apparition, d'une évolution dans le temps et d'un lien direct vers la réponse type générée par Bing. Pour chaque page, on dispose d'un compte de citations, des requêtes associees et d'un indicateur de tendance. Les données sont rafraichies a fréquence régulière, comme pour les autres rapports de Bing Webmaster Tools. Pour l'instant, le rapport ne propose pas de fonctionnalites avancees comme la comparaison concurrentielle ou le scoring de qualité de citation. Le périmètre est volontairement focalise sur la mesure first-party, ce qui est déjà une avancee significative pour la catégorie. ## Sous le capot Le rapport AI Performance s'appuie sur les données internes de Microsoft. Quand Copilot ou la recherche IA de Bing génère une réponse qui cité une page d'un site vérifie dans Bing Webmaster Tools, l'événement est enregistre et remonte dans le rapport du propriétaire. C'est un mecanisme analogue a celui qui sous tend le rapport Search Performance pour la recherche classique, transpose a la recherche générative. L'avantage méthodologique est décisif. Les plateformes tierces comme [Profound](/outils/profound), [Peec.ai](/outils/peec-ai) ou [Otterly.AI](/outils/otterly-ai) fonctionnent avec des paniers de prompts simules, ce qui produit une estimation robuste mais inévitablement partielle. Le rapport AI Performance livre les données réelles, sur les requêtes réellement posees par les utilisateurs réels, sans biais de sélection. C'est la différence entre un sondage statistique et un recensement. Le rapport est en preview publique, ce qui signifie que des évolutions sont attendues. Microsoft a indique sur son blog que la couverture serait elargie progressivement, avec des métriques additionnelles dans les mois a venir. Les équipes qui adoptent l'outil tôt beneficient d'un retour d'expérience precieux pour orienter leur stratégie. ## Forces La première force est évidente, le cout. Le rapport est gratuit, intègre a un outil que la plupart des webmasters utilisent déjà. Pour une PME, une agence ou un grand compte, l'inscription a Bing Webmaster Tools et la vérification du site sont des formalites. L'acces aux données AI Performance ne requiert aucun budget supplémentaire, aucune négociation commerciale, aucun process achats. La deuxième force est la qualité des données. First-party, sans echantillonnage, sans estimation. C'est le meilleur signal possible sur le périmètre couvert. Quand le rapport indique qu'une page a été citée 47 fois sur la requête IA bilan carbone entreprise au cours du mois ecoule, c'est un fait, pas une projection. Cette qualité intrinseque est supérieure a tout ce que les plateformes tierces peuvent livrer pour le même périmètre. La troisième force est la granularite par requête. Pour la première fois, un webmaster peut voir exactement quelles formulations utilisateurs declenchent une citation de son contenu dans une réponse générative. C'est un materiau éditorial precieux pour piloter le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). On peut détecter des intentions sous estimees, identifier des angles non couverts par le contenu existant, et orienter une stratégie de contenu IA-friendly avec des données concrètes. ## Limites La première limite est dans le titre même. Bing AI Performance ne couvre que Microsoft. Les données portent sur Copilot et la recherche générative de Bing. Aucune visibilité n'est fournie sur ChatGPT, Perplexity, Google AI Overviews, Gemini ou Claude. Pour une marché francophone ou Google domine la recherche grand public, l'outil ne peut pas être l'unique source de pilotage GEO, comme le rappellent les [premières métriques de présence IA](/fondations/lecon-07-mesurer-presence-ia). Il complète, il ne remplace pas. La deuxième limite tient au statut preview. Microsoft a annonce le rapport en preview publique, ce qui signifie que les définitions des métriques, la fréquence de mise a jour et le périmètre exact peuvent évoluer. Les équipes qui construisent un dashboard ou un workflow autour de ces données doivent prévoir une marge de tolerance pour les changements a venir. La troisième limite est l'absence de comparaison concurrentielle. Le rapport montré uniquement les données du site vérifie. Aucun benchmark n'est disponible pour situer la performance par rapport a un competiteur. Pour cette dimension, il faut continuer a passer par les plateformes tierces, ou construire un suivi indirect par croisement de signaux. Sur les marchés ou Bing pese peu, l'utilité de l'outil resté limitee, même si la qualité des données est excellente. ## Tarif et conditions Le rapport AI Performance est entierement gratuit. Il est inclus dans Bing Webmaster Tools, qui ne demande aucun abonnement. Pour y acceder, il suffit de créer un compte Bing Webmaster Tools, de vérifier la propriété du site via balise méta, fichier xml ou DNS, et d'attendre que les données commencent a remonter. La vérification suit le même protocole que pour Google Search Console, ce qui rend la mise en place rapide pour une équipe déjà familiere des outils de webmaster. ## Pour qui Le rapport AI Performance est utile pour tous les sites, du solopreneur au grand compte. La gratuite et la qualité des données rendent l'adoption évidente. Les équipes Search structurées l'utiliseront en complement de leur plateforme tierce pour disposer de données first-party sur le périmètre Microsoft. Les PME et solopreneurs qui n'ont pas le budget pour une plateforme tierce y trouveront leur unique source de pilotage gratuite. Les marques dont l'audience est très orientee Microsoft, par exemple les éditeurs B2B nord-americains ou les acteurs lies a l'ecosysteme Office, en tireront un benefice particulier. Sur le marché francophone ou Bing pese moins, l'outil resté un complement utile mais ne suffit pas a piloter une stratégie GEO complète, comme l'expose le [monitoring en continu sans budget enterprise](/tactiques/tactique-10-monitoring-en-continu). Il s'inscrit alors dans un mix avec une plateforme tierce comme [Peec.ai](/outils/peec-ai) ou [Profound](/outils/profound). ## Verdict Note 7.6 sur 10. Le rapport AI Performance de Bing Webmaster Tools est une avancee importante pour la catégorie. La combinaison gratuit plus first-party plus granularite par requête est inedite et change la donné pour toute équipe qui veut piloter sa visibilité IA sur le périmètre Microsoft. Le retrait porte uniquement sur le périmètre limite a Bing et Copilot. C'est un outil que toute équipe devrait activer immédiatement, en complement et non en remplacement d'une plateforme tierce pour les autres moteurs. ### FAQ **Bing AI Performance est-il vraiment gratuit ?** Oui, totalement gratuit. Il est integre a Bing Webmaster Tools, l'outil que Microsoft propose depuis des annees pour le suivi du referencement classique. Aucun abonnement supplementaire requis. **Quels moteurs IA sont couverts par ce rapport ?** Uniquement Bing Copilot et Bing AI Search, c'est-a-dire le perimetre Microsoft. Le rapport ne donne aucune visibilite sur ChatGPT, Perplexity, Gemini, Claude ou Google AI Overviews. **Quelle est la difference avec un outil paye comme Profound ou Peec.ai ?** Profound et Peec.ai estiment les citations a partir d'un panel de prompts rejoues. Bing AI Performance livre les donnees reelles de Microsoft, sans estimation ni echantillonnage. La verite first-party d'un cote, l'estimation panelisee de l'autre. **Le rapport est-il fiable malgre la mention preview publique ?** Les donnees sont fiables sur le perimetre Microsoft. La mention preview indique que l'interface et certaines metriques peuvent evoluer. Les chiffres bruts de citations sont stables, c'est la presentation qui peut bouger. **Faut-il installer quelque chose pour activer le rapport ?** Non. Si le site est deja verifie dans Bing Webmaster Tools, le rapport AI Performance apparait dans l'interface au cours du deploiement progressif de la preview publique. Aucune installation supplementaire requise. **Bing AI Performance suffit-il pour piloter une strategie GEO ?** Non, sauf si l'audience cible utilise majoritairement Copilot ou Bing AI Search. Sur la plupart des marches francophones, ChatGPT, Perplexity et AI Overviews dominent et exigent un outil complementaire. ### Sources - [Bing Webmaster Tools, page d'accueil](https://www.bing.com/webmasters) — Microsoft, 2026 - [Announcing AI Performance report public preview](https://blogs.bing.com/webmaster/february-2026/ai-performance-report-preview) — Bing Webmaster Blog, 9 fevrier 2026 - [Bing rolls out AI Performance, what SEO teams need to know](https://searchengineland.com/bing-ai-performance-report) — Search Engine Land, fevrier 2026 --- ## Otterly.AI, le ticket d'entree dans le monitoring GEO - URL : https://geo-academy.fr/outils/otterly-ai - Description : Fiche outil Otterly.AI. Tarif a partir de 29 USD/mois, focus sur la part de voix IA simple, idéal pour débuter mais limite en profondeur. Forces, limites et positionnement face a Peec.ai et Profound. - Auteur : camille-lefebvre - Publie le : 2026-03-09 - Tags : outils, monitoring, entry-level, geo, petites-equipes **TL;DR.** Otterly.AI est l'outil entry-level du marche GEO a 29 USD/mois, oriente Share of Voice IA simple a comprendre. C'est une porte d'entree, pas une destination finale: l'outil permet a un solopreneur ou une PME de mesurer un premier signal et de comprendre le sujet, mais sa profondeur limitee et sa couverture moteurs etroite (ChatGPT, Perplexity, AI Overviews) le disqualifient pour les equipes Search structurees. Otterly.AI occupe une place spécifique sur le marché GEO. La plateforme se positionné sur le segment entry-level avec un point d'entree a 29 USD par mois, et un concept simple, le Share of Voice IA. L'outil ne pretend pas rivaliser avec [Profound](/outils/profound) ou [Peec.ai](/outils/peec-ai) sur la profondeur. Il vise une audience qui veut [comprendre le GEO](/fondations/lecon-01-quest-ce-que-le-geo), mesurer un premier signal et prendre une décision avant d'investir dans une plateforme plus sérieuse. C'est une porte d'entree, pas une destination finale. ## Ce que fait l'outil Otterly.AI propose trois fonctionnalites principales. La première est la création d'un [panier de prompts](/fondations/lecon-08-prompt-set-de-base) manuel, complète par des suggestions automatiques a partir d'un mot clé ou d'un domaine. La deuxième est la mesure d'un score de Share of Voice IA, qui agrege la part de citations d'une marque sur le panier de prompts traques. La troisième est un suivi temporel basique, avec des graphiques d'évolution sur quelques semaines a quelques mois selon l'anciennete du compte. L'interface est volontairement minimaliste. La page d'accueil affiche le score Share of Voice IA en grand, avec une évolution sur sept et trente jours, puis liste les prompts ou la marque est visible et ceux ou elle ne l'est pas. Pour un solopreneur ou une petite équipe qui découvre le GEO, ce niveau de simplicite est une force pédagogique. On comprend en quelques minutes ce que l'outil mesure et comment l'interpréter. L'outil propose également un suivi concurrentiel limite. On peut déclarer quelques competiteurs et voir leur part de citations sur le même panier de prompts, mesure simplifiée du [Share of Answer](/fondations/lecon-07-mesurer-presence-ia). La fonctionnalite est correcte pour une comparaison rapide, mais elle n'a pas la finesse d'un suivi structure comme celui de [Peec.ai](/outils/peec-ai) ou de [Profound](/outils/profound). ## Sous le capot La méthodologie d'Otterly.AI repose sur l'exécution régulière du panier de prompts declares sur les moteurs cibles. La fréquence est moins agressive que sur les plateformes haut de gamme, ce qui peut entraîner des decalages dans la détection des changements rapides. L'extraction des citations s'appuie sur la détection des mentions textuelles et des URL, avec une logique simple qui privilegie la robustesse a la finesse. L'éditeur ne communique pas en détail sur la taille des paniers executes ni sur la fréquence exacte selon les plans, ce qui laisse une zone d'incertitude. L'historique de données est encore court, la plateforme étant relativement jeune. Pour une analyse de tendance sur plusieurs trimestres, il faudra attendre que la base s'enrichisse. La couverture moteurs est centree sur ChatGPT, Perplexity et [Google AI Overviews](/fondations/lecon-02-cartographie-moteurs-generatifs). Bing Copilot est moins prioritaire dans la communication produit, et des moteurs comme Claude ou les verticaux IA spécifiques ne sont pas couverts dans le périmètre standard. C'est un choix qui correspond a la cible, les petites équipes ayant rarement les moyens d'analyser plus de deux a trois moteurs sérieusement. ## Forces La première force est évidente, le ticket d'entree. A 29 USD par mois, Otterly.AI est l'un des points d'acces les plus accessibles a une plateforme GEO outillee. Pour un solopreneur, une agence avec un portefeuille de petits clients ou une PME qui n'a jamais investi dans le GEO, c'est un budget facile a defendre. La barriere d'entree financiere est suffisamment basse pour permettre un test sérieux pendant un trimestre. La deuxième force est conceptuelle. Le Share of Voice IA est un indicateur lisible, qui se transmet bien en interne. Une direction marketing qui n'a jamais entendu parler de GEO comprend en deux minutes le sens du score et son évolution. Pour faire monter une organisation en maturite, c'est un avantage non négligeable. L'outil peut servir de support pédagogique avant de basculer vers une plateforme plus sérieuse. La troisième force est l'onboarding. La prise en main est rapide, le parcours d'inscription mene a un premier dashboard utilisable en quelques minutes. Pour une équipe qui veut tester le concept sans investir une journee de cadrage, l'expérience est satisfaisante. ## Limites La première limite est la profondeur d'analyse. La plateforme mesure un score, mais le drill-down sur chaque prompt est sommaire. On voit la liste des prompts ou la marque apparaît, mais l'analyse fine du placement dans la réponse, du verbatim associe et du contexte concurrentiel resté limitee. Pour une équipe qui veut piloter une stratégie éditoriale en s'appuyant sur les insights des réponses IA, l'outil n'apporte pas le materiau suffisant. La deuxième limite est l'historique. Otterly.AI est une plateforme jeune. Les données accumulees sont moins riches que sur des outils comme Profound ou Ahrefs Brand Radar, qui beneficient d'une base de données plus étendue. Pour une analyse retrospective sur plusieurs trimestres, l'outil montré vite ses limites. La troisième limite tient au plafond de verre fonctionnel. Otterly.AI n'est pas conçu pour une équipe Search structurée avec un panier de plusieurs milliers de prompts, un suivi multi-marché, des dashboards executifs personnalises et un export API riche, qui pourraient s'intégrer a un [montage de monitoring continu](/tactiques/tactique-10-monitoring-en-continu). Quand une organisation atteint cette maturite, elle bascule naturellement vers [Peec.ai](/outils/peec-ai) ou vers [Profound](/outils/profound). Otterly.AI joue un rôle de tremplin, pas de plateforme de destination. ## Tarif et conditions Le plan d'entree d'Otterly.AI démarre a 29 USD par mois. Des plans supérieurs existent avec des volumes de prompts plus élevés, des fréquences de rejeu plus agressives et un suivi concurrentiel étendu. Les conditions sont mensuelles ou annuelles, avec une remise visible sur l'annuel. Une version d'essai existe, ce qui permet de tester la plateforme avant tout engagement. Pour une évaluation sereine, le ticket d'entree autorise un trimestre de test pour moins de 100 USD, ce qui est rare dans la catégorie. ## Pour qui Otterly.AI s'adresse aux solopreneurs, aux freelances, aux petites agences et aux PME en phase de découverte du GEO. Le profil idéal est une personne ou une équipe qui n'a jamais utilisé de plateforme GEO, qui veut comprendre le concept avant d'investir, et qui pilote une marque ou un site relativement simple. Le score Share of Voice IA est un point de départ suffisant pour ce niveau de maturite. L'outil sert également de plateforme pédagogique pour des formateurs ou des consultants qui veulent montrer le concept a leurs clients. Le ticket d'entree autorise une démonstration sans négociation budgetaire. A l'inverse, une équipe Search structurée, une ETI ou une grande entreprise n'a pas d'intérêt a Otterly.AI au dela d'une phase exploratoire. Le manque de profondeur et la couverture moteurs limitee deviennent vite des freins. Sur ce segment, Peec.ai ou Profound sont des choix plus alignes. ## Verdict Note 6.8 sur 10. Otterly.AI fait honnêtement ce qu'il promet, et son tarif d'entree le rend accessible a une audience large. Le retrait porte sur la profondeur d'analyse, sur l'historique encore court et sur l'absence d'utilité pour les équipes matures. Pour une première expérience GEO, c'est un choix defendable. Pour une organisation qui veut piloter sérieusement sa visibilité IA, l'outil sert de marché pied avant de basculer vers une plateforme plus complète. ### FAQ **Combien coute Otterly.AI exactement ?** Le plan d'entree demarre a 29 USD/mois, ce qui en fait l'outil GEO le plus accessible du marche. Des plans superieurs existent mais l'outil reste positionne entry-level, pas mid-market. **Otterly.AI suffit-il pour piloter une strategie GEO ?** Non. Otterly est une porte d'entree, pas une destination finale. Pour une equipe qui veut piloter serieusement, Peec.ai (90 EUR) ou Profound (499 USD) offrent une profondeur incomparable. **Quels moteurs IA Otterly couvre-t-il ?** Trois moteurs principaux: ChatGPT, Perplexity et Google AI Overviews. La couverture Bing Copilot et Claude est faible, ce qui limite la mesure pour certains marches. **A qui s'adresse vraiment Otterly.AI ?** Solopreneurs, agences avec petit portefeuille, PME en phase de decouverte du GEO, equipes qui veulent un premier reflexe de mesure sans engager un budget consequent. Pas pour grandes entreprises ni marches matures. **Quelle est la principale limite d'Otterly.AI ?** La profondeur d'analyse limitee. L'outil donne un Share of Voice IA et la liste des prompts ou la marque apparait, mais pas de drill-down detaille sur les reponses, peu d'historique, pas de suivi concurrentiel avance. **Otterly.AI est-il un bon outil pedagogique ?** Oui, c'est une de ses forces. L'interface minimaliste rend le concept de Share of Voice IA immediat. Pour faire decouvrir le GEO a une direction non technique, l'outil sert tres bien. ### Sources - [Otterly.AI, site officiel](https://otterly.ai) — Otterly.AI, 2026 - [Comparatif des outils GEO entry-level](https://searchengineland.com/geo-tools-entry-level-2026) — Search Engine Land, 2026 - [Choisir son premier outil GEO en 2026](https://ahrefs.com/blog/first-geo-tool) — Ahrefs blog, 2026 --- ## Peec.ai, le rapport qualité-prix qui prend le mid-market au sérieux - URL : https://geo-academy.fr/outils/peec-ai - Description : Fiche outil Peec.ai. Plans Starter 90 EUR, Pro 199 EUR, Enterprise 499 EUR. Une plateforme GEO pensée pour les PME et ETI europeennes, avec une interface FR-friendly et une couverture pragmatique des moteurs IA. - Auteur : camille-lefebvre - Publie le : 2026-02-28 - Tags : outils, monitoring, pme, mid-market, geo **TL;DR.** Peec.ai est la plateforme GEO mid-market europeenne avec un plan Starter a 90 EUR/mois, Pro a 199 EUR et Enterprise a 499 EUR. L'interface est lisible par une equipe francophone et la couverture moteurs (ChatGPT, Perplexity, AI Overviews, Bing Copilot) suffisante pour une PME ou ETI. C'est l'outil qu'on recommande a une equipe marketing qui veut commencer sans bruler son budget, tout en disposant d'un suivi concurrentiel structure. Peec.ai joue une partition différente de [Profound](/outils/profound). La plateforme s'adresse au mid-market europeen, avec un tarif d'entree a 90 EUR par mois qui ouvre le [GEO](/fondations/lecon-01-quest-ce-que-le-geo) a un segment jusque la mal servi. La proposition de valeur tient en trois points. Un rapport qualité-prix lisible, une interface accessible aux équipes francophones, et une couverture pragmatique des principaux moteurs IA. C'est l'outil qu'on conseille a une équipe marketing qui veut commencer a mesurer sans bruler son budget. ## Ce que fait l'outil Peec.ai propose un suivi de visibilité IA structure autour de quatre briques. La première est la création et l'exécution d'un [panier de prompts](/fondations/lecon-08-prompt-set-de-base), declares manuellement ou suggeres par la plateforme a partir d'un mot clé racine. La deuxième est la mesure de la part de citations sur les principaux moteurs génératifs, avec un focus assume sur ChatGPT, Perplexity, Google AI Overviews et Bing Copilot. La troisième est le suivi concurrentiel, avec un panneau qui compare la part de voix d'une marque face a une liste de competiteurs declares. La quatrième est un rapport hebdomadaire envoye par email, lisible par un directeur marketing sans formation technique. Sur le plan ergonomique, l'interface mise sur la lisibilite plus que sur la richesse fonctionnelle. Les écrans sont clairs, les indicateurs clé sont mis en avant, et les vues techniques sont accessibles sans encombrer la page principale. Pour une équipe francophone, c'est un argument concret. Même si l'interface resté majoritairement en anglais, la structure et le vocabulaire sont accessibles sans friction. Le plan Pro a 199 EUR debloque des fonctionnalites avancees, dont un volume supérieur de prompts traques, des exports plus complets et un suivi concurrentiel étendu. Le plan Enterprise a 499 EUR ouvre l'acces a des paniers de prompts plus volumineux, a un support prioritaire et a des features comme le suivi multi-marques pour les groupes ou les agences. ## Sous le capot La méthodologie est classique pour la catégorie. Peec.ai entretient un panier de prompts pour chaque compte, rejoue ces prompts a fréquence configuree sur les moteurs cibles, et extrait les citations. La fréquence de rejeu est un point a surveiller. Sur le plan Starter, le rythme est moins agressif que sur le plan Pro, ce qui peut limiter la finesse du suivi temporel pour les marques très concurrentielles. L'extraction des citations s'appuie sur une combinaison de détection d'URL et de reconnaissance de mention textuelle. Quand un moteur cité une marque sans inclure de lien, la plateforme remonte la mention textuelle et la classe, en cohérence avec la logique du [Citation Quality Score](/methodologie/citation-quality-score). C'est un point essentiel sur ChatGPT, qui paraphrase fréquemment ses sources. Peec.ai documente sa méthodologie sur son blog, ce qui est plutôt honnête dans une catégorie ou l'opacite est encore fréquente. L'agregation des données produit des indicateurs de part de voix, de variation hebdomadaire et de comparaison concurrentielle. Les exports CSV et les API sont disponibles a partir du plan Pro, ce qui permet a une équipe data d'intégrer les données Peec dans un [dashboard maison de monitoring continu](/tactiques/tactique-10-monitoring-en-continu). ## Forces Le rapport qualité-prix est l'argument principal. A 90 EUR par mois, le ticket d'entree est sans concurrence directe sur le segment des plateformes pensées pour des entreprises structurées. [Otterly.AI](/outils/otterly-ai) joue plus bas avec un point d'entree a 29 USD, mais sur un périmètre plus réduit. Peec.ai propose une couverture significative pour un budget que la plupart des PME et ETI peuvent absorber sans négociation budgetaire. La deuxième force tient a l'expérience utilisateur. L'interface est pensée pour des marketeurs, pas pour des data scientists. Les écrans evitent le jargon technique, les visualisations sont epurees, et les rapports envoyes par email sont directement exploitables. Pour une équipe qui doit présenter l'évolution de sa part de voix IA en comite mensuel, le livrable Peec passé sans retouche. La troisième force est l'onboarding. Peec.ai met l'accent sur une prise en main rapide, avec un parcours guide pour déclarer les prompts initiaux, importer une liste de competiteurs et configurer les alertes. Une équipe peut déployer la plateforme en moins d'une semaine, ce qui contraste avec des outils plus lourds qui demandent plusieurs ateliers de cadrage. ## Limites La première limite tient a la couverture moteurs. Peec.ai concentre ses efforts sur le top 4, ce qui est defendable d'un point de vue volume, mais laisse de côté des moteurs comme Claude ou des verticaux IA spécifiques. Pour une marque dont l'audience utilisé massivement Claude, ou qui cherche a se positionner sur des moteurs sectoriels, l'outil aura besoin d'être complète. La deuxième limite est le support client en anglais. C'est un détail qui agace, surtout sur un outil qui se vend comme accessible aux équipes europeennes. Les emails de support, les articles de la base de connaissance et les sessions live sont en anglais. Une équipe francophone peu a l'aise avec l'anglais technique pourra trouver l'expérience moins fluide qu'avec un éditeur 100 pour cent francophone, même si le rapport qualité-prix resté defendable. La troisième limite porte sur la profondeur d'analyse. Comparee a Profound, la plateforme est plus simple, et c'est par construction. Les dashboards executifs de Peec.ai sont propres mais moins riches, le drill-down sur chaque prompt est moins détaillé, et les indicateurs de placement dans la réponse sont moins finement decoupes. Pour une PME, c'est suffisant. Pour une direction Search d'un grand compte qui defend son budget GEO, la granularite peut manquer. ## Tarif et conditions Peec.ai propose trois plans documentes publiquement. Le plan Starter a 90 EUR par mois cible les petites équipes ou les marques qui demarrent. Le plan Pro a 199 EUR par mois cible le mid-market structure. Le plan Enterprise a 499 EUR par mois cible les groupes, les agences et les marques avec un volume élevé de prompts. Les engagements sont mensuels ou annuels, avec une remise visible sur l'annuel. Une période d'essai existe selon les périodes commerciales, ce qui permet de tester la plateforme sans engagement immédiat. ## Pour qui Peec.ai est l'outil par defaut pour une PME ou une ETI europeenne qui veut commencer un programme GEO sérieux sans bruler son budget. Le profil idéal est une équipe marketing francophone, structurée autour d'un ou deux marketeurs, qui pilote une marque sur quelques marchés europeens et qui a besoin d'un livrable mensuel exploitable. Les agences qui gerent un portefeuille de clients mid-market trouvent également un bon ratio sur le plan Enterprise. A l'inverse, une grande entreprise avec une direction Search dédiée, des budgets dédiés et des exigences de reporting executive trouvera Peec.ai un peu juste sur la profondeur. [Profound](/outils/profound) joue sur ce terrain. Une startup avec un budget très serre preferera commencer par [Otterly.AI](/outils/otterly-ai), voire par le rapport [Bing AI Performance gratuit](/outils/bing-ai-performance). ## Verdict Note 7.9 sur 10. Peec.ai est probablement le meilleur rapport qualité-prix du marché GEO en 2026 sur le segment mid-market. La plateforme ne pretend pas rivaliser avec Profound sur la profondeur, mais elle livre l'essentiel a un tarif accessible, avec une expérience utilisateur soignee. Le retrait porte sur la couverture moteurs encore partielle hors top 4 et sur un support en anglais qui peut frustrer une partie de la cible europeenne. Pour la majorité des PME et ETI, c'est un choix raisonnable et facile a defendre. ### FAQ **Combien coute Peec.ai exactement ?** Trois plans: Starter a 90 EUR/mois, Pro a 199 EUR/mois, Enterprise a 499 EUR/mois. La tarification est publique et claire, sans devis cache, ce qui est rare sur le marche GEO. **Quelle est la difference entre Peec.ai et Otterly.AI ?** Otterly est entry-level a 29 USD/mois, oriente decouverte. Peec.ai est mid-market a 90 EUR, avec plus de profondeur (suivi concurrentiel, panier plus large, interface plus mature). Peec couvre aussi Bing Copilot, qu'Otterly ne couvre pas bien. **Peec.ai s'adresse-t-il aux grandes entreprises ?** Plutot non. Le plan Enterprise a 499 EUR existe mais reste leger face a Profound qui s'adresse aux Fortune 500. Peec.ai est positionne PME, ETI et mid-cap europeennes, pas grands comptes. **Quelle profondeur d'analyse Peec.ai offre-t-il ?** La plateforme offre un suivi de part de voix par moteur, un rapport hebdomadaire par email, un suivi concurrentiel avec competiteurs declares et un onboarding rapide. La profondeur reste en retrait par rapport a Profound sur les dashboards executifs. **Le support de Peec.ai est-il en francais ?** Non, le support est en anglais. C'est une frustration possible pour les equipes francophones moins a l'aise. L'interface en revanche est lisible et accessible aux equipes FR. **Peec.ai convient-il pour debuter en GEO ?** Oui pour une equipe marketing qui a un budget de l'ordre de 100-200 EUR/mois et qui veut un outil immediatement operationnel. Pour un solopreneur ou un budget tres serre, Otterly reste l'option entry-level. ### Sources - [Peec.ai, site officiel](https://peec.ai) — Peec.ai, 2026 - [European GEO platforms, what to expect](https://searchengineland.com/european-geo-platforms) — Search Engine Land, 2026 - [Peec.ai pricing and features overview](https://peec.ai/blog/pricing-explained) — Peec.ai blog, 2026 --- ## Profound, la plateforme GEO pensée pour les Fortune 500 - URL : https://geo-academy.fr/outils/profound - Description : Fiche outil Profound. Levée de 55 millions de dollars en 2025, dashboards executifs, monitoring de citations sur ChatGPT, Perplexity et AI Overviews. Forces, limites et prix réels d'une solution pensée pour les grands comptes. - Auteur : camille-lefebvre - Publie le : 2026-02-12 - Tags : outils, monitoring, grands-comptes, geo, ai-search **TL;DR.** Profound est la plateforme GEO de reference pour Fortune 500 et tres gros mid-market, avec un tarif d'entree a 499 USD/mois et des plans Enterprise sur devis. L'editeur Tryprofound a leve 55 millions de dollars en 2025 (Sequoia, Kleiner Perkins) et aligne Ramp, IBM, Plaid et Indeed comme clients. La profondeur d'analyse, les dashboards executifs et la couverture de 5 moteurs (ChatGPT, Perplexity, AI Overviews, Bing Copilot, Claude) sont remarquables, mais le tarif elitiste exclut PME et une partie du mid-market. Profound se positionné comme la plateforme de référence pour [mesurer la visibilité d'une marque dans les moteurs génératifs](/fondations/lecon-07-mesurer-presence-ia). L'éditeur Tryprofound a lève 55 millions de dollars en 2025 aupres de Sequoia et Kleiner Perkins, avec un portefeuille client qui aligne Ramp, IBM, Plaid et Indeed. La promesse tient en une phrase. Donner aux directions Search et marketing une vision granulaire de leur part de voix dans ChatGPT, Perplexity, Google AI Overviews et Bing Copilot, avec le sérieux d'un outil pense pour des comites de direction. ## Ce que fait l'outil Profound s'inscrit dans la catégorie monitoring et analytics GEO, dans la lignée du [monitoring en continu sans budget enterprise](/tactiques/tactique-10-monitoring-en-continu). La plateforme exécute en continu des paniers de prompts representatifs d'une marque ou d'un secteur, capture les réponses générées par les principaux moteurs IA, puis extrait les citations et mentions pour produire des indicateurs de part de voix. La granularite est un argument clé. On obtient non seulement la liste des prompts ou la marque est citée, mais aussi le verbatim associe, le rang d'apparition dans la réponse, le pourcentage de contexte alloue a la marque versus ses concurrents, et l'évolution dans le temps. L'outil propose également un suivi concurrentiel automatisé. On déclare un panier de competiteurs, et la plateforme retourne pour chaque prompt la repartition des citations entre les acteurs du marché. Les dashboards executifs synthetisent ces données en vues hebdomadaires ou mensuelles, exportables en présentation. Pour une direction marketing qui cherche a defendre un budget GEO en interne, ce type de livrable est un argument concret. A cela s'ajoute un module de drill-down sur chaque prompt. On peut voir la réponse complète d'un moteur, identifier les sources externes citées, et comprendre par exemple pourquoi un competiteur sort plus souvent sur une thématique donnée. Cette mise a plat est utile pour orienter une stratégie éditoriale ou de relations presse autour des sources qui pesent dans les réponses. ## Sous le capot La méthodologie de Profound repose sur un [panier de prompts construit en amont](/fondations/lecon-08-prompt-set-de-base) et entretenu pour chaque client. La plateforme combine prompts standards par secteur, prompts personnalises declares par l'équipe utilisatrice, et prompts derives via expansion automatique a partir de mots clés ou de questions fréquentes. Ce panier est rejoue a fréquence régulière, chaque jour ou chaque semaine selon la configuration, sur les moteurs cibles. Pour chaque exécution, Profound capture la réponse brute et applique un travail d'extraction des citations. L'éditeur revendique une précision élevée sur l'identification des marques et URL citées, y compris quand le moteur paraphrase ou n'inclut pas de lien explicite. C'est un point technique non trivial, ChatGPT et Perplexity ne citant pas leurs sources de la même manière, et les AI Overviews evoluant dans leur format. La qualité du module d'extraction fait partie de la valeur de la plateforme. Les données sont ensuite agregees dans un entrepot propriétaire, ce qui permet les comparaisons sur plusieurs mois et la production d'indicateurs croises. Profound revendique une absence d'echantillonnage, contrairement a certains concurrents qui rejouent un sous ensemble de prompts. La fréquence et le volume executes sont une partie de ce qui justifié le prix. ## Forces La première force est la profondeur d'analyse. La plupart des outils GEO se contentent de remonter une liste de prompts et un compteur de citations. Profound va plus loin avec des indicateurs de qualité de mention, de placement dans la réponse, et de partage de contexte avec les concurrents, en cohérence avec le [Citation Quality Score](/methodologie/citation-quality-score). Pour une équipe qui doit prouver l'impact d'un investissement éditorial sur la présence dans les réponses IA, ces indicateurs valent leur poids. La seconde force tient a la qualité des dashboards executifs. L'outil n'est pas pense uniquement pour des analystes Search. Il produit des vues lisibles par un directeur marketing, voire un comite executif, avec des comparatifs propres et des projections d'évolution. Cette dimension reporting est ce qui differencie Profound d'outils plus techniques comme [Otterly.AI](/outils/otterly-ai), qui livrent les données brutes mais laissent l'utilisateur faire le travail de mise en forme. Enfin, la base client elle même est un signal. Quand IBM, Ramp ou Plaid choisissent une plateforme GEO, cela passé par des process achats et juridiques exigeants. Cela ne garantit pas la pertinence pour tout le monde, mais cela indique une maturite produit et une stabilité opérationnelle qui rassurent les grands comptes. ## Limites La première limite est évidente, le tarif. Avec un point d'entree autour de 499 USD par mois et des plans Enterprise sur devis qui peuvent monter très haut, Profound se ferme par construction au mid-market et a la PME. Pour une entreprise qui cherche a se familiariser avec le GEO sans engager un budget significatif, l'outil n'est tout simplement pas accessible. [Peec.ai](/outils/peec-ai), avec ses plans a partir de 90 EUR par mois, joue clairement sur ce creneau. La seconde limite tient au périmètre fonctionnel. Profound mesure, mais n'optimise pas. La plateforme ne livre pas de recommandations éditoriales détaillées, pas de check-list d'optimisation guidee par moteur, pas de génération de prompts d'amélioration. Quand l'équipe identifié un competiteur dominant sur un cluster de prompts, elle doit elle même deduire les actions a mener. Cette philosophie outil de mesure est defendable, mais elle supposé une équipe Search mature capable de transformer les insights en plan d'action. La troisième limite est plus subtile. La courbe d'apprentissage est réelle. Bien utiliser Profound demande de définir un panier de prompts pertinent, d'arbitrer les indicateurs prioritaires, et d'organiser un rythme de lecture des dashboards. Les équipes peu structurées risquent de se retrouver devant un tableau de bord riche mais peu actionne. ## Tarif et conditions Profound communique publiquement un point d'entree a 499 USD par mois, avec des plans supérieurs sur devis pour les configurations Enterprise. Les engagements typiques sont annuels, avec une facturation en USD. La plateforme ne propose pas de version freemium ni d'essai gratuit documente, l'acces se fait via prise de contact commerciale. Pour les grandes entreprises, le ticket réel se situé souvent au dela du plan d'entree, en particulier quand le panier de prompts dépasse plusieurs milliers d'unités ou quand le suivi concurrentiel inclut de nombreux competiteurs. ## Pour qui La plateforme cible sans ambiguite les directions Search et marketing d'entreprises grand compte. Le profil idéal est une organisation qui dispose déjà d'une équipe Search structurée, d'un budget GEO déclare, et d'une obligation de reporting executive sur la visibilité de marque. Les ETI matures, les groupes côtés, les éditeurs SaaS d'envergure trouvent ici un outil a la hauteur de leurs exigences. A l'inverse, une PME, une startup en phase d'amorcage ou une agence avec un portefeuille de petits clients n'a probablement pas intérêt a Profound. Le rapport entre le ticket d'entree et les besoins réels n'est pas favorable. Sur ce segment, [Peec.ai](/outils/peec-ai) ou [Otterly.AI](/outils/otterly-ai) offrent une porte d'entree plus réaliste, ou même le rapport gratuit [Bing AI Performance](/outils/bing-ai-performance). ## Verdict Note 8.4 sur 10. Profound est une plateforme sérieuse, techniquement solide et bien positionnée sur les besoins réels des grandes entreprises. La profondeur d'analyse et la qualité des dashboards justifient le ticket pour qui a les moyens. Le retrait porte sur le périmètre fonctionnel limite au monitoring, sur l'absence de couche d'optimisation guidee, et sur un tarif qui ferme la porte a une bonne partie du marché. Pour une Fortune 500 qui cherche un outil de référence, le choix se defend. Pour le reste, des alternatives existent. ### FAQ **Combien coute Profound exactement ?** Le tarif d'entree publique est de 499 USD/mois. Les plans Enterprise sont sur devis et peuvent depasser plusieurs milliers d'euros mensuels selon le volume de prompts et de marques traquees. **Qui sont les clients de Profound ?** Le portefeuille public inclut Ramp, IBM, Plaid et Indeed. Profound s'adresse aux Fortune 500 et au tres gros mid-market avec un budget GEO dedie. La PME et le mid-market classique sont hors cible. **Profound propose-t-il une version d'essai gratuite ?** Pas d'essai gratuit documente publiquement. L'acces se fait apres echange commercial et evaluation des besoins. C'est une difference notable avec Peec.ai et Otterly qui acceptent les inscriptions directes. **Profound dit-il comment optimiser le contenu ?** Non. Profound mesure mais ne dit pas comment corriger. La plateforme livre des dashboards et des indicateurs, pas un module d'optimisation guidee. Les correctifs restent du ressort de l'equipe Search interne ou d'une agence. **Quelle est la difference principale entre Profound et Peec.ai ?** Profound est enterprise (499 USD+, Fortune 500), Peec.ai est mid-market (90 EUR Starter, PME et ETI europeennes). Profound a plus de profondeur dashboards, Peec.ai a une accessibilite tarifaire incomparable. **Profound couvre-t-il Claude ?** Oui, c'est une des differences avec Peec.ai et Otterly. Profound est l'un des rares outils a integrer Claude dans son perimetre, ce qui peut etre decisif pour les marques B2B et tech dont l'audience utilise Claude. ### Sources - [Profound, site officiel](https://www.tryprofound.com) — Tryprofound, 2026 - [Profound raises 55M Séries B led by Sequoia](https://techcrunch.com/2025/profound-séries-b) — TechCrunch, 2025 - [AI search visibility, what tools actually do](https://searchengineland.com/ai-search-visibility-tools) — Search Engine Land, 2026 --- # Frameworks methodologie ## Fan-Out Coverage Index: mesurer la couverture des sous-requêtes générées par AI Mode - URL : https://geo-academy.fr/methodologie/fan-out-coverage-index - Description : Indice de couverture des sous-requêtes que les moteurs génératifs derivent d'une requête mere via fan-out, calcule a partir de Qforia ou d'une simulation maison, pour identifier les zones de la grappe semantique ou la marque disparaît. - Auteur : camille-lefebvre - Publie le : 2026-04-18 - Tags : methodologie, framework, fan-out, ai-mode, qforia, foci **TL;DR.** Le Fan-Out Coverage Index mesure la proportion des sous-requêtes générées par le query fan-out de Google AI Mode sur lesquelles une marque est effectivement présente. Il s'appuie sur le simulateur Qforia de Mike King ou un script LLM maison, et produit un score 0-100 par requête mere qui révèle les trous de couverture invisibles dans une analyse SERP classique. Quand un moteur génératif comme Google AI Mode reçoit une requête, il ne traite pas une requête unique. Il en derive plusieurs dizaines, parfois plus de cent, qu'il exécute en parallèle pour construire une réponse synthétique. C'est le [mecanisme appelé fan-out](/tactiques/tactique-01-anatomie-query-fan-out), décrit publiquement par Mike King et l'équipe d'iPullRank a partir de l'outil Qforia. Le Fan-Out Coverage Index mesure la couverture d'une marque sur l'ensemble de ces sous-requêtes derivees, et pas seulement sur la requête mere visible par l'utilisateur. ## Pourquoi un nouveau framework Mesurer la présence sur la requête mere est insuffisant, comme le complément du [Citation Quality Score](/methodologie/citation-quality-score) le montre déjà. Un utilisateur qui pose une question complexe a AI Mode déclenche en arrière-plan une exploration semantique étendue. Si la marque est citée sur la requête mere mais absente sur 80 pour cent des sous-requêtes, la réponse synthétique restituee a l'utilisateur sera biaisee vers les sources qui couvrent l'intégralité de la grappe semantique. La marque perd en profondeur de présence, même si elle apparaît dans la réponse finale. Les outils classiques de tracking de visibilité générative ne donnent pas acces aux sous-requêtes. Mike King et iPullRank ont publié en 2025 le cadre théorique du fan-out et l'outil Qforia, qui permet de simuler raisonnablement les sous-requêtes derivees par AI Mode. Le FOCI s'appuie sur ce travail pour produire un indicateur opérationnel, calculable, comparable mois sur mois, et utilisable en pilotage de production de contenu. La référence au travail de Mike King est explicite et assume. Le FOCI ne se substitue pas a Qforia, il l'utilisé. Le framework définit comment construire l'indicateur de couverture a partir de la simulation fan-out, et comment l'interpréter pour orienter la stratégie éditoriale. ## Définition formelle Le FOCI mesure, pour une requête mere donnée, la part de sous-requêtes derivees sur lesquelles la marque étudiée apparaît au moins une fois dans la réponse générative simulee. ### Inputs requis | Input | Définition | Volumetrie | |-------|-----------|-----------| | Requêtes meres | Requêtes prioritaires du secteur, niveau executif | 10 a 30 | | Sous-requêtes derivees | Générées par Qforia ou par un script maison | 30 a 150 par requête mere | | Réponses génératives | Captures sur chaque sous-requête | Une par sous-requête | | Annotation présence | Marque citée oui ou non sur chaque réponse | Binaire | ### Outputs produits | Output | Granularite | Fréquence | |--------|------------|-----------| | FOCI requête mere | Score 0-100 par requête mere | Trimestriel | | FOCI agrege | Moyenne ponderee sur les requêtes meres prioritaires | Trimestriel | | Carte de couverture | Heatmap requête mere x type de sous-requête | Trimestriel | | Trous de couverture | Liste priorisée des sous-requêtes découvertes a fort volume | Trimestriel | ### Formule de calcul ``` FOCI(requete_mere) = (nb_sous_requetes_avec_marque_citee / nb_sous_requetes_total) * 100 FOCI_agrege = sum(FOCI(rm_i) * poids_business_i) / sum(poids_business_i) ``` Le score est calcule pour chaque requête mere, puis agrege en moyenne ponderee selon le poids business des requêtes meres. Le poids business est defini par l'équipe en amont, en général proportionnel au volume de recherche, a la valeur transactionnelle ou a la priorité stratégique. ### Bareme de lecture | Score FOCI | Lecture | Action | |------------|---------|--------| | 80 et plus | Couverture forte | Maintenir, surveiller la concurrence | | 60 a 79 | Couverture partielle | Combler les trous identifiés | | 40 a 59 | Couverture faible | Plan éditorial dédié sur 2 trimestres | | 20 a 39 | Couverture marginale | Refonte semantique de la grappe | | Moins de 20 | Absence structurelle | Audit complet de l'ecosysteme de contenu | ## Comment construire le panier de requêtes meres et leur fan-out Le framework se construit en cinq étapes. Première étape, sélection des requêtes meres prioritaires, en cohérence avec le [framework PromptStack 4-Layers](/methodologie/promptstack-4-layers). Identifier 10 a 30 requêtes meres qui sont a la fois fortes en volume, en valeur business et en intention générative. Les sources sont multiples. Search Console (requêtes a fort volume avec impressions sur AI Overviews), AlsoAsked et AnswerThePublic pour les requêtes a forte explosion semantique, transcripts de centres d'appel, requêtes de support client. Éviter les requêtes trop courtes ou trop transactionnelles, qui ne declenchent pas de fan-out étendu. Deuxième étape, génération des sous-requêtes par Qforia. Pour chaque requête mere, lancer une simulation fan-out via Qforia (outil public d'iPullRank) ou via un script maison utilisant un modèle de langage en mode chain-of-thought pour decomposer la requête en sous-questions. La simulation maison utilisé un prompt de decomposition standardise, gele par version, du type "Pour répondre a la question X, quelles sont les sous-questions qu'un moteur génératif exécute en arrière-plan ? Liste 50 sous-questions distinctes, ordonnees par centralite par rapport a la question initiale". Troisième étape, deduplication et nettoyage. Les outils de fan-out produisent des sous-requêtes parfois redondantes ou hors-sujet. Passer la liste a une étape de deduplication semantique (regrouper les formulations équivalentes en gardant la plus naturelle) et de filtrage (retirer les sous-requêtes qui sortent du périmètre de la marque étudiée). Conserver entre 30 et 150 sous-requêtes par requête mere. Quatrième étape, releve de présence. Pour chaque sous-requête, exécuter une requête sur les moteurs génératifs cibles (a minima ChatGPT Search, Perplexity, Google AI Mode quand accessible) et capturer la réponse. Annoter de manière binaire si la marque étudiée est citée ou non dans la réponse. Le FOCI ne mesure pas la qualité de la citation (c'est l'objet du Citation Quality Score), il mesure uniquement la couverture en présence ou absence. Cinquième étape, gel et versioning. Comme pour les autres frameworks de l'academie, le panier de requêtes meres et leur fan-out sont geles pour un cycle trimestriel sous le nom FOCI v.AAAA.QX (par exemple FOCI v.2026.Q2). Toute modification est versionnee avec changelog public. ## Comment interpréter les résultats L'indice est lu a trois niveaux. Au niveau de la requête mere, on regarde directement le score FOCI de la requête. Un score élevé sur une requête mere de forte valeur business est un signal positif. Un score faible sur une requête mere stratégique est un appel d'air a corriger. La cartographie permet de visualiser les zones aveugles. Au niveau agrege, le FOCI moyen pondere donné une lecture executive. Cette mesure est idéale pour le pilotage trimestriel et la communication interne avec les directions métier. Elle se compare d'un trimestre a l'autre et permet de mesurer les progrès consolides. Au niveau des trous de couverture, le framework produit une liste priorisée des sous-requêtes ou la marque n'apparaît pas, classees par volume de recherche estime ou par centralite semantique, illustrée par notre [étude maison sur la couverture fan-out](/tactiques/tactique-12-fan-out-coverage). Cette liste est l'output opérationnel le plus directement actionnable, car elle dicte le plan éditorial du trimestre suivant. Une sous-requête a fort volume sur laquelle la marque est absente est un brief de production de contenu évident. L'analyse croisee entré FOCI et CQS est particulièrement informative. Une marque peut afficher un FOCI élevé (couverture large) mais un CQS faible (présence superficielle), ou inversement un FOCI moyen avec un CQS fort sur les sous-requêtes ou elle apparaît. Le premier cas appelle a un travail de qualité (top of answer, citations explicites). Le second cas appelle a un travail d'extension semantique (couvrir plus de sous-requêtes). ## Cas d'application: secteur logiciel B2B Un éditeur français de logiciel SaaS B2B mesure son FOCI sur 15 requêtes meres prioritaires, choisies parmi les requêtes de comparaison et de sélection d'outils du secteur. Pour chaque requête mere, Qforia derive entré 50 et 90 sous-requêtes, soit environ 1000 sous-requêtes au total a travers le panier. Le score FOCI agrege ressort dans une zone de couverture partielle. La cartographie révèle un schema clair. La marque est bien couverte sur les sous-requêtes liees aux fonctionnalites générales et aux comparatifs face aux concurrents directs nommes. Elle est faiblement couverte sur trois familles de sous-requêtes. Les questions d'intégration avec d'autres outils du stack du client (intentions très opérationnelles, sous-explorees par le contenu existant). Les questions de migration depuis des outils legacy concurrents (sous-requêtes a forte intention transactionnelle). Les questions de conformite et de sécurité (RGPD, ISO 27001, hebergement souverain), très demandees en B2B français et faiblement traitées par le contenu existant. Le diagnostic produit un plan éditorial trimestriel via le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). Production d'une série de pages d'intégration documentant les connexions avec les principaux outils complementaires du stack cible (ERP, CRM, BI, plateformes de productivité). Production de guides de migration depuis chaque outil legacy concurrent identifié, avec cas d'usage détaillés et FAQ. Refonte de la page conformite en hub structure couvrant chaque sous-requête identifiée, avec [schema FAQPage et balisage Schema.org](/tactiques/tactique-07-schema-org-llm) et liens vers les certifications publiques. Après deux trimestres, le FOCI agrege gagne une vingtaine de points, et l'analyse fine montre que les trois familles de trous identifiées sont en grande partie comblees. Le framework a permis de transformer un signal flou ("la marque manque de présence sur AI Mode") en plan éditorial concret et chiffrable. ## Limites et évolutions prévues Le framework comporte trois limites a connaître. D'abord, la simulation fan-out resté une approximation. Qforia et les scripts maison produisent des sous-requêtes plausibles, mais nous n'avons pas acces aux sous-requêtes réellement executees par AI Mode dans son moteur interne. Les sous-requêtes simulees couvrent probablement la majorité des sous-requêtes réelles, mais avec un biais que personne ne peut mesurer en l'absence de transparence des moteurs. Le travail public de Mike King a montré que la simulation est utile, sans pretendre a l'exhaustivite. Le framework herite de cette limite. Ensuite, le FOCI mesure la présence binaire (oui ou non) et ignore la qualité de la citation. Une marque peut être citée 50 fois sur 100 sous-requêtes (FOCI a 50) mais en fin de réponse a chaque fois, ce qui produit un FOCI honorable mais un CQS faible. La lecture combinee FOCI plus CQS est obligatoire pour éviter les fausses lectures. Une version FOCI v.2026.10 introduira un FOCI pondere optionnel, qui multiplie la présence par un facteur tire du Citation Quality Score. Enfin, la cadence trimestrielle est volontaire (le calcul est couteux en releves), mais cela peut être trop lent pour des secteurs en évolution rapide. Pour ces secteurs, une cadence mensuelle réduite (5 a 10 requêtes meres au lieu de 15 a 30) est une option tactique recommandee. ## Licence et reutilisation Le Fan-Out Coverage Index est publié sous licence Creative Commons CC BY 4.0. Le framework est librement reutilisable, modifiable et redistribuable, y compris a usage commercial, sous réserve de citer la source. Citation conseillee: [Lefebvre C.](/auteurs/camille-lefebvre), Fan-Out Coverage Index v.2026.04, Academie GEO, geo-academy.fr. Le framework est explicitement construit sur les travaux publics de Mike King et de l'équipe d'iPullRank autour de Qforia et de la théorie fan-out de AI Mode. L'équipe éditoriale de l'academie tient a saluer leur contribution décisive a la comprehension publique du fonctionnement des moteurs génératifs en 2025 et 2026, sans laquelle le FOCI n'aurait pas pu être formalise. Les retours terrain, propositions d'évolution et variantes sectorielles sont accueillis a l'adresse méthodologie at geo-academy.fr et credites nominativement dans le changelog du framework, mis a jour chaque trimestre. Les inspirations méthodologiques d'Aleyda Solis sur le suivi de panier multi-secteurs ont également nourri la conception de la cadence et de la structure de versioning. ### FAQ **Qu'est-ce que le query fan-out de Google AI Mode ?** Le fan-out est la decomposition d'une requête utilisateur en plusieurs dizaines de sous-requêtes parallèles, exécutées en arrière-plan pour construire une réponse synthétique. Le mecanisme a été décrit publiquement par Mike King via le simulateur Qforia. **Comment calcule-t-on le FOCI d'une page ?** On simule le fan-out sur la requête mere (via Qforia ou un script LLM), on releve la présence de la marque sur chaque sous-requête générée, puis on divise le nombre de sous-requêtes traitées par le total et on multiplie par 100. **Pourquoi pas se contenter de mesurer la requête mere ?** Une marque peut être citée sur la requête mere mais absente sur 80 pour cent des sous-requêtes. La réponse synthétique sera alors biaisee vers les sources qui couvrent mieux la grappe semantique. La requête mere ne suffit pas. **Quel outil utiliser pour simuler le fan-out ?** Qforia, propose par iPullRank, est la référence accessible. Pour une équipe technique, un script qui demande a un LLM de derive une requête en sous-questions donne un résultat équivalent a la simulation. **Le FOCI s'applique-t-il a Perplexity ou ChatGPT Search ?** Le FOCI a été conçu pour Google AI Mode, ou le fan-out est documente. Les autres moteurs ont des mecanismes différents. L'indice peut servir de signal indirect mais pas de mesure exacte de leur fonctionnement interne. **Quelle volumetrie minimale pour un FOCI exploitable ?** 10 a 30 requêtes meres par secteur, avec 10 a 50 sous-requêtes simulées par requête mere. En dessous, le score n'est pas stable d'un trimestre a l'autre. ### Sources - [Mike King, Qforia and the fan-out theory of AI Mode, iPullRank, 2025](https://ipullrank.com/qforia-fan-out-ai-mode) - [AI Overviews citation research, iPullRank](https://ipullrank.com/ai-overviews-citation-research) - [GEO: Generative Engine Optimization, Princeton 2023](https://arxiv.org/abs/2311.09735) --- ## PromptStack 4-Layers: localiser a quel etage du funnel la marque perd la conversation - URL : https://geo-academy.fr/methodologie/promptstack-4-layers - Description : Structure de panier de prompts en quatre couches (Discovery, Comparison, Trust, Action) pour mesurer ou la présence générative d'une marque s'effondre dans le parcours d'achat et orienter les correctifs. - Auteur : solene-marchais - Publie le : 2026-03-12 - Tags : methodologie, framework, panier-de-prompts, funnel, promptstack **TL;DR.** Le PromptStack 4-Layers structure un panier de prompts non comme une liste plate mais comme un escalier en quatre couches: Discovery (découverte), Comparison (comparaison), Trust (confiance) et Action (passage a l'acte). Il révèle a quel etage du funnel la présence générative d'une marque s'effondre et oriente les correctifs vers la couche qui pese le plus dans la conversion. PromptStack 4-Layers est une grille de lecture qui oblige a regarder le [panier de prompts](/fondations/lecon-08-prompt-set-de-base) non comme une liste plate, mais comme un escalier. Une marque peut être très présente sur les requêtes de découverte et totalement absente au moment ou l'utilisateur compare deux options, ou pire, demande comment souscrire. Le framework rend cette ventilation visible, chiffrable et corrigible. ## Pourquoi un nouveau framework Beaucoup d'audits GEO confondent volume de présence et qualité de présence, distinction reprise par le [Citation Quality Score](/methodologie/citation-quality-score). Une marque peut sortir avec un Share of Answer global de 18 pour cent, ce qui semble correct, mais cette présence se concentré sur les couches Discovery et s'effondre sur Trust et Action. Or, c'est sur Trust et Action que la conversation se terminé et que la conversion arrive. Mesurer un score global sans le ventiler par etage du funnel masque la réalité opérationnelle. Le framework s'inspire des modèles classiques d'entonnoir de conversion (See, Think, Do, Care de Avinash Kaushik, ou TOFU, MOFU, BOFU dans la littérature inbound), mais il les traduit dans la grammaire propre des moteurs génératifs. Un prompt n'est pas une intention vague, c'est une formulation réelle qui produit une réponse synthétique. La structure en quatre couches a été validée empiriquement sur plus de 30 paniers sectoriels en 2025, ou elle apparaît comme la decomposition la plus stable et la plus parlante en comite executif. ## Définition formelle Le PromptStack 4-Layers est une typologie de prompts plus une règle de calcul de score par couche. ### Inputs requis | Input | Définition | Volumetrie cible | |-------|-----------|------------------| | Couche Discovery | Prompts de découverte sans marque mentionnée | 30 prompts | | Couche Comparison | Prompts opposant deux acteurs nommes | 30 prompts | | Couche Trust | Prompts qui interrogent la fiabilité, la sécurité, l'avis | 25 prompts | | Couche Action | Prompts opérationnels (souscrire, contacter, resilier) | 15 prompts | ### Outputs produits | Output | Définition | Lecture | |--------|-----------|---------| | SoA par couche | Part de réponses citant la marque sur les prompts de la couche | 0 a 100 | | Profil PromptStack | Vecteur a 4 valeurs (D, C, T, A) | Carte radar | | Layer Drop | Différence entré la couche la plus haute et la plus basse | 0 a 100 | | Layer Priority Index | Score multiplie par valeur business de la couche | Plan d'action | ### Logique des quatre couches ``` Discovery = "quel outil pour X", "quelle solution pour Y", "que choisir pour Z" Comparison = "A vs B", "A ou B", "alternatives a A" Trust = "A est-il fiable", "avis sur A", "A est-il une arnaque" Action = "comment souscrire a A", "comment annuler A", "tarif A" ``` Plus une couche est basse dans la pile (Action est plus basse que Discovery), plus elle est proche de la conversion et plus son poids commercial est fort. Un trou sur Action représente une perte directe de revenu. Un trou sur Discovery représente une perte de notoriete amont, plus diffuse mais plus etalee dans le temps. ## Comment construire le panier en 4 couches La construction se déroule en cinq étapes concrètes. L'objectif est d'aboutir a un panier rejouable, équilibre, et representatif des intentions réelles du marché francophone du secteur. Première étape, récolte des intentions. Lister 200 a 300 formulations réelles tirees de plusieurs sources combinees. Search Console agregee de la marque et de ses concurrents quand disponible, AlsoAsked et AnswerThePublic pour les questions, suggestions des moteurs, transcripts de centres d'appel, requêtes de support client, threads Reddit francophones et forums sectoriels. Garder les formulations en l'état, sans normalisation excessive, pour préserver le langage naturel. Deuxième étape, classification par couche. Coder chaque intention selon sa couche d'appartenance avec une règle de décision simple. Si la formulation contient une marque, c'est Comparison ou Trust ou Action. Si elle ne contient aucune marque, c'est Discovery. Pour distinguer Comparison, Trust et Action, regarder le verbe ou la formule centrale (vs, ou, contre pour Comparison; fiable, arnaque, avis pour Trust; comment, ou, tarif, souscrire pour Action). Troisième étape, equilibrage. Garder 30 Discovery, 30 Comparison, 25 Trust, 15 Action. Les volumetries refletent la distribution observee dans les paniers sectoriels réels et ponderent suffisamment Discovery pour mesurer la notoriete amont, sans négliger les couches a forte valeur business. Quatrième étape, contrôle anti-biais. Vérifier qu'aucune marque n'est sur-représentée dans les prompts Comparison, Trust ou Action. Si la marque étudiée apparaît dans 20 prompts Comparison sur 30, le panier est biaise et le score sera artificiellement gonfle. Reequilibrer en remplacant des prompts. Cinquième étape, gel et versioning. Le panier est gele pour 12 semaines minimum. Les versions ulterieures sont datees (par exemple PS-4L v.2026.04). Toute modification est tracee dans un changelog public, condition de la rejouabilite. ## Comment interpréter les résultats Le score par couche est lu en absolu et en relatif. En absolu, on regarde si la marque est présente sur la couche. En relatif, on regarde le profil global et l'écart entré la couche la plus haute et la plus basse, appelé Layer Drop. | Profil PS-4L | Lecture | Action prioritaire | |--------------|---------|--------------------| | D fort, C/T/A faibles | Notoriete sans conversion | Pousser comparatifs et fiches produit | | D faible, C/T/A forts | Marque connue des inities | Investir top of funnel et média | | D et C forts, T faible | Problème de réputation | Travailler avis tiers et signaux E-E-A-T | | D, C, T forts, A faible | Frein opérationnel | Créer pages procedurales et FAQ schema | | Tous faibles | Invisible | Audit complet de présence | Un Layer Drop supérieur a 30 points est un signal fort. Cela signifie qu'une couche est deficitaire de manière structurelle et mérite un investissement dédié. Un Layer Drop inférieur a 15 indique une présence equilibree, ce qui est rare et souvent revelateur d'une marque historique du secteur. La lecture finale combine score par couche et valeur business de la couche, dans un Layer Priority Index calcule comme la différence au benchmark sectoriel multipliee par le poids business de la couche. Les poids business par defaut sont 1.0 pour Discovery, 1.5 pour Comparison, 2.0 pour Trust, 3.0 pour Action, ajustables par secteur. ## Cas d'application: secteur e-santé Une plateforme française de teleconsultation interroge le framework pour comprendre pourquoi sa visibilité générative semble correcte mais le trafic qualifié ne suit pas. Le panier est construit sur les 100 prompts d'un parcours type d'utilisateur cherchant une consultation rapide. Le profil PromptStack montré un score Discovery confortable, porte par les requêtes de découverte du concept de teleconsultation. La marque est citée comme exemple parmi plusieurs sur la majorité des réponses. La couche Comparison est moyenne, la marque apparaît sur les comparatifs face aux deux concurrents directs, mais souvent en second cité. La couche Trust descend nettement. Les réponses générées sur les prompts de fiabilité renvoient massivement vers les sites officiels de l'Assurance Maladie et vers deux média généralistes, en oubliant la marque étudiée. La couche Action est la plus faible. Sur les prompts de souscription et de remboursement, la marque est quasiment absente. Le diagnostic est clair. Layer Drop de 38 points entré Discovery et Action. La marque a une présence top-funnel mais pas de signaux opérationnels exploitables par les moteurs. Trois actions sont engagees. Production d'une série de pages procedurales détaillées (comment prendre rendez-vous, comment se faire rembourser, comment recevoir une ordonnance) avec [schema HowTo via Schema.org pour LLM](/tactiques/tactique-07-schema-org-llm). Travail sur la couche Trust via une page Méthodologie publique decrivant la conformite RGPD et HDS, avec FAQ schema et liens vers les autorisations officielles. Renforcement éditorial des comparatifs face aux concurrents directs via le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). Après deux trimestres, la couche Action passé d'un score très faible a un score correct, et le Layer Drop tombe sous 20 points. Le framework a permis de cibler précisément la zone opérationnelle qui freinait la conversion, sans gaspiller d'effort sur la couche Discovery déjà saturee. ## Limites et évolutions prévues Le framework a trois limites assumees. D'abord, la classification d'un prompt en couche peut être ambigue. Une formulation comme "est-ce que A est meilleur que B et fiable" appartient a la fois a Comparison et a Trust. La règle pratique consiste a coder la couche dominante par le verbe principal, mais des cas borderline subsistent. Tenir un journal des décisions de classification permet de garder la coherence d'une version a l'autre du panier. Ensuite, les volumetries 30/30/25/15 sont des conventions. Pour des secteurs ou la couche Action est très développée (souscription en ligne, e-commerce pur), il peut être pertinent de monter la couche Action a 25 prompts au detriment de Discovery. Le framework resté utilisable, a condition de documenter la deviation dans le changelog. Enfin, le score par couche ne dit rien de la qualité de la citation. Une marque peut être citée en bas de réponse, en passant, ou en haut de réponse, en tête d'argument. Pour cette dimension, le PromptStack 4-Layers se combine avec le [Citation Quality Score](/methodologie/citation-quality-score), qui pondere chaque mention selon sa position et son contexte. L'évolution prévue pour PS-4L v.2026.10 introduira une cinquième couche optionnelle, Retention, pour les secteurs ou la fidélisation est centrale (assurance, banque, telecom). Cette couche couvrira les prompts du type "comment garder mes avantages", "fidélité A", "renouveler abonnement A". ## Licence et reutilisation PromptStack 4-Layers est publié sous licence Creative Commons CC BY 4.0. Le framework est librement reutilisable, modifiable et redistribuable, a usage commercial inclus, a la seule condition de citer la source. Citation conseillee: [Marchais S.](/auteurs/solene-marchais), PromptStack 4-Layers v.2026.03, Academie GEO, geo-academy.fr. Les paniers sectoriels de référence (assurance, banque, e-santé, e-commerce mode, telecom) sont disponibles en consultation sur le site de l'academie. Les contributions sectorielles, les variantes et les retours terrain sont accueillis a l'adresse méthodologie at geo-academy.fr. Les contributeurs retenus sont credites dans le changelog public du framework, mis a jour chaque trimestre. L'inspiration de la grille a quatre etages doit beaucoup aux travaux d'Aleyda Solis sur les paniers sectoriels et aux discussions menees par Olaf Kopp sur la cartographie semantique des intentions, que l'équipe éditoriale tient a saluer ici. ### FAQ **Pourquoi quatre couches et pas trois ou cinq ?** Les quatre couches (Discovery, Comparison, Trust, Action) reprennent la segmentation classique du funnel marketing, deja maitrisee par les équipes. Réduire a trois efface la couche Trust qui est souvent la plus déficiente. Pousser a cinq complique l'annotation sans gain de signal. **Comment classer un prompt dans une couche ?** Discovery = qu'est-ce que X, comment fonctionne X. Comparison = X vs Y, meilleur X. Trust = avis sur X, est-ce que X est fiable. Action = comment souscrire X, ou acheter X. Les prompts ambigus sont classés selon l'intention dominante. **Que faire si la marque score 60 en Discovery mais 5 en Action ?** Ce profil est typique d'une marque connue mais peu choisie. Le correctif n'est pas d'ecrire plus d'articles definitionnels mais de produire des contenus de Trust (cas client, certifications, FAQ d'achat) et d'Action (pages de conversion citables). **Le PromptStack remplace-t-il un audit SEO classique ?** Non. Le PromptStack mesure la présence générative ventilee par couche du funnel. L'audit SEO mesure le classement sur les SERP classiques. Les deux se complement, ils ne se substituent pas. **Combien de temps pour bâtir un PromptStack initial ?** Une journee pour une équipe qui connaît son marché. La difficulté principale n'est pas la classification mais la collecte des intentions réelles dans les quatre couches, surtout Trust et Action souvent oubliees. **Le PromptStack est-il rejouable d'un trimestre a l'autre ?** Oui, si le panier est versionne. La pratique recommandee est de geler le panier pendant un trimestre, de le reouvrir en début de trimestre suivant pour mise a jour, puis de relever les variations entre versions. ### Sources - [GEO: Generative Engine Optimization, Aggarwal et al., Princeton 2023](https://arxiv.org/abs/2311.09735) - [Aleyda Solis, édition 2026, Newsletter SEOFOMO](https://www.seofomo.co/) - [Olaf Kopp, semantic search and entity SEO](https://www.kopp-online-marketing.com/) --- ## GEO-Pulse FR: l'indice hebdomadaire de visibilité IA en français - URL : https://geo-academy.fr/methodologie/geo-pulse-fr - Description : Indice composite hebdomadaire qui agrege Share of Answer, Citation Share et Sentiment sur un panier de 100 prompts FR par secteur, normalise par taille de marché, pour donner une lecture executive comparable mois sur mois. - Auteur : solene-marchais - Publie le : 2026-02-04 - Tags : methodologie, framework, kpi, share-of-answer, geo-pulse **TL;DR.** GEO-Pulse FR est un indice hebdomadaire normalise 0-100 qui combine Share of Answer, Citation Share et Sentiment sur un panier de 100 prompts français par secteur, releves sur cinq moteurs IA. Il fournit un chiffre unique lisible en comite de direction, mais reposant sur une formule auditable, rejouable, et comparable d'une semaine a l'autre comme d'un secteur a l'autre. GEO-Pulse FR est un indice hebdomadaire qui répond a une question simple posee en comite de direction. Notre marque est-elle citée cette semaine, plus ou moins que la semaine dernière, et plus ou moins que nos concurrents directs ? Le framework a été conçu pour fournir un chiffre unique, lisible en trente secondes, mais reposant sur les [premières métriques de présence IA](/fondations/lecon-07-mesurer-presence-ia) et une base statistique stable, rejouable et auditable. ## Pourquoi un nouveau framework Le marché francophone du GEO produit beaucoup de tableaux de bord, mais peu d'indices comparables. La plupart des outils renvoient des comptages bruts (ma marque a été citée 14 fois sur ChatGPT cette semaine), ce qui ne dit rien sur la part de voix relative ni sur la qualité de la présence. D'autres restituent des scores qualitatifs sans formule publique, donc impossibles a auditer ou a reproduire trois mois plus tard. GEO-Pulse FR remplit un trou précis. Il fournit un indice normalise entré 0 et 100, avec une formule ouverte, calculable a la main si besoin, et conditionne par un panier de prompts versionne. Trois propriétés guident la conception. Lisibilite executive (un seul chiffre), comparabilite temporelle (même panier semaine après semaine), et auditabilite (chaque composante est traceable jusqu'au prompt et a la réponse brute). ## Définition formelle Le GP-FR pour une marque B sur un secteur S a la semaine T se calcule en trois étapes. On mesure les trois sous-composantes, on les pondere, puis on normalise par la taille de marché. ### Inputs requis | Input | Définition | Source | |-------|-----------|--------| | Panier de prompts P | 100 prompts FR par secteur, versionne v.AAAA.MM | Équipe éditoriale | | Moteurs M | 5 moteurs cibles, requête identique sur chacun | ChatGPT Search, Perplexity, AI Overviews, Gemini, Bing Copilot | | Releve R | 1 collecte par semaine, même jour, même tranche horaire | Outil interne ou prestataire | | Marché W | Part de marché réelle de la marque dans son secteur | Étude sectorielle, Insee, Xerfi, etc. | ### Outputs produits | Output | Granularite | Fréquence | |--------|------------|-----------| | Indice GP-FR | Marque x secteur | Hebdomadaire | | Decomposition SoA, CS, Sentiment | Marque x moteur | Hebdomadaire | | Trend 12 semaines | Marque | Glissant | | Rang sectoriel | Marque vs N concurrents | Hebdomadaire | ### Formule de calcul ``` SoA = (nb_reponses_mentionnant_B / nb_total_reponses_obtenues) * 100 CS = (nb_citations_explicites_B / nb_total_citations_dans_reponses) * 100 Sent = ((nb_mentions_positives - nb_mentions_negatives) / nb_total_mentions_B) * 100 GP_brut = 0.4 * SoA + 0.4 * CS + 0.2 * Sent GP_FR = GP_brut * (1 / sqrt(part_de_marche_B)) ``` La ponderation 40/40/20 reflete un parti pris assume. Être mentionne et être cité explicitement avec lien comptent autant. Le sentiment vient en correctif, parce qu'une présence forte mais negative resté un signal moins exploitable qu'une présence neutre. La normalisation par la racine carree de la part de marché évite l'aplatissement des leaders sectoriels. Une marque qui pese 30 pour cent du marché n'a pas a être 30 fois plus citée qu'une challenger qui pese 1 pour cent pour passer pour visible. Le facteur racine carree est une convention empirique, déjà utilisée dans les indices Herfindahl ajustes, qui produit des scores comparables entré acteurs de tailles très différentes. ## Comment construire le panier de 100 prompts Le panier est le coeur du framework. Mauvais panier, mauvais indice. La construction se fait en quatre passes. Première passé, decomposition du parcours. Lister les intentions de recherche les plus fréquentes du secteur, en s'appuyant sur des sources de demande réelle (Search Console agregee si disponible, AlsoAsked, AnswerThePublic, suggestions Google et Bing). Repartir 100 prompts en quatre couches selon la [logique PromptStack 4-Layers](/methodologie/promptstack-4-layers), soit environ 30 prompts Discovery, 30 Comparison, 25 Trust, 15 Action. Deuxième passé, equilibrage marques. Le panier doit citer chaque acteur du secteur de manière équivalente. Si un prompt mentionne une marque par son nom, on en prévoit un équivalent pour chaque concurrent direct. Cela évite de biaiser le SoA en faveur d'un acteur simplement parce qu'on l'a interroge plus souvent. Troisième passé, francisation. Tous les prompts sont en français, avec les tournures réellement utilisées par le marché francophone (incluant les variantes Quebec, Belgique et Suisse romande quand le secteur le justifié). Pas de traduction depuis l'anglais, qui produit des prompts peu naturels et qui sortent du distribution-shift attendu. Quatrième passé, gel et versioning. Le panier est gele pour 12 semaines minimum, sous le nom v.AAAA.MM (par exemple v.2026.04). Toute modification est tracee dans un changelog. On ne change un prompt qu'a la prochaine version, pour préserver la comparabilite temporelle de l'indice. Exemple de prompt Discovery pour le secteur assurance auto: "Quelle est la meilleure assurance auto pour un jeune conducteur en France en 2026". Exemple de prompt Comparison: "Direct Assurance ou Maaf, lequel est moins cher pour une voiture électrique". Exemple de prompt Trust: "L'Olivier Assurance est-il fiable pour les sinistres". Exemple de prompt Action: "Comment souscrire en ligne a une assurance auto sans relevé d'information". ## Comment interpréter les résultats L'indice produit un score sur 100 avec une lecture conventionnelle calee sur le marché francophone observe pendant la phase de calibration de janvier a mars 2026. Le bareme suivant n'est pas universel, il s'ajuste après deux trimestres d'historique sectoriel. | Score GP-FR | Lecture | Action recommandee | |-------------|---------|--------------------| | 80 et plus | Leader génératif | Defendre, surveiller la concentration et le sentiment | | 60 a 79 | Challenger fort | Identifier les moteurs sous-performants et les renforcer | | 30 a 59 | Présence partielle | Investir sur les couches Comparison et Trust du PromptStack | | 10 a 29 | Visibilité faible | Audit complet, probable absence de signaux d'autorité | | Moins de 10 | Invisible | Refonte de la stratégie de présence | Trois lectures complementaires sont recommandees. La decomposition par moteur révèle souvent qu'une marque domine sur Perplexity mais disparaît sur AI Overviews, ce qui oriente les actions correctives. La trend 12 semaines lisse les variations hebdomadaires liees aux mises a jour des moteurs. Le rang sectoriel ramene l'indice a une position relative, plus parlante en comite de direction qu'un chiffre absolu. ## Cas d'application: secteur neobanque française Une neobanque grand public souhaite comparer sa visibilité a celle de trois concurrents directs sur un panier de 100 prompts decembre 2025. Le panier couvre les intentions Discovery (comparateurs de neobanques, choix selon usage), Comparison (face aux banques traditionnelles et entré neobanques), Trust (sécurité des depots, agrement, garantie de l'état) et Action (procédure d'ouverture, transfert de salaire, cloture de compte ancien). L'indice global ressort autour d'une zone challenger. La decomposition par moteur montré une présence forte sur Perplexity, moyenne sur ChatGPT Search, et faible sur AI Overviews. Le sentiment est neutre a positif sur les couches Discovery et Comparison, mais devient mitige sur la couche Trust en raison de mentions repetees d'incidents anciens dans la presse généraliste, qui sont reprises dans les réponses synthetiques. L'analyse oriente trois actions. Renforcer la documentation publique sur l'agrement et la garantie des depots pour amener les moteurs a citer des sources fraiches plutôt que des articles datant de 2022. Travailler la présence sur AI Overviews via des contenus structurés avec données factuelles et des [FAQ schema via Schema.org pour LLM](/tactiques/tactique-07-schema-org-llm). Engager une publication invitee mensuelle dans deux média spécialisés pour augmenter le [Citation Share mesuré par le CQS](/methodologie/citation-quality-score) sur Perplexity et Bing Copilot. Après trois mois et un nouveau panier en v.2026.04, l'indice gagne une dizaine de points et la marque change de palier. Sans formule normalisee, on aurait simplement constate plus de mentions, sans pouvoir conclure sur la part de voix relative. ## Limites et évolutions prévues Le framework ne capture pas tout. Trois angles morts a connaître. D'abord, le panier resté une approximation. Cent prompts ne couvrent pas l'intégralité des intentions réelles d'un marché. Une marque peut être très présente sur des requêtes longue traine non echantillonnees, et l'indice les ignore. La parade consiste a sortir un panier sectoriel mensuel sur une niche spécifique en complement. Ensuite, la collecte aupres des moteurs est sujette a la variabilite, raison pour laquelle un [monitoring en continu structuré](/tactiques/tactique-10-monitoring-en-continu) compte autant que le chiffre brut. Un même prompt peut donner deux réponses différentes a deux instants de la même journee. Le framework limite ce bruit par une releve a heure fixe et par une moyenne sur les 5 dernières semaines glissantes, mais ne l'élimine pas. Les marques très petites avec un faible SoA absolu doivent regarder la trend lissee plutôt que le chiffre brut hebdomadaire. Enfin, le sentiment est mesure de manière deterministe, par simple comptage des mentions positives, neutres et negatives. Un futur GP-FR v.2026.10 inclura un sentiment pondere par la classification automatique d'expressions neutres-positives et neutres-negatives, qui sont aujourd'hui forcees en zone neutre. Les évolutions sont publiées chaque trimestre dans le changelog public. La prochaine version, GP-FR v.2026.07, integrera Mistral Le Chat dans la liste des moteurs cibles si son taux de citation atteint le seuil de 5 pour cent du marché francophone observe. ## Licence et reutilisation GEO-Pulse FR est publié sous licence Creative Commons CC BY 4.0. Toute personne, agence, équipe interne ou universitaire peut reutiliser, adapter, derivee et publier le framework, y compris a usage commercial, a la condition de citer la source. Citation conseillee: [Marchais S.](/auteurs/solene-marchais), GEO-Pulse FR v.2026.04, Academie GEO, geo-academy.fr. Pour signaler une amélioration, un retour terrain ou une variante sectorielle, l'équipe éditoriale reçoit les contributions a l'adresse méthodologie at geo-academy.fr. Les contributions retenues sont creditees nominativement dans le changelog du framework. Le panier de prompts de référence v.2026.04 est disponible en complement pédagogique a la demande des étudiants et chercheurs francophones. ### FAQ **Qu'est-ce que le GEO-Pulse FR mesure exactement ?** Un indice composite hebdomadaire qui combine la part de réponses ou la marque apparaît, la part de citations explicites avec lien, et le sentiment des mentions, normalise par la taille du marché du secteur. **Pourquoi un indice hebdomadaire et pas mensuel ?** La cadence T7 capte les évolutions liees a la presse et aux campagnes sans noyer le signal dans le bruit quotidien. Un indice mensuel masquerait les variations courtes qui correspondent souvent a des événements éditoriaux. **Comment se compare-t-il au Share of Voice IA d'Otterly.AI ou Profound ?** Le SoV des plateformes commerciales reste un comptage propriétaire, non auditable. Le GEO-Pulse FR publie sa formule sous CC BY 4.0, ce qui permet a deux equipes de reproduire le score et de le comparer. **Quel volume de prompts faut-il pour un indice stable ?** 100 prompts FR par secteur est le seuil retenu pour assurer une variance acceptable. En dessous de 60, l'écart type explose et l'indice devient peu fiable d'une semaine a l'autre. **Le GEO-Pulse FR fonctionne-t-il sur des marchés non francophones ?** La méthode est transposable, mais le panier de prompts doit être recalibre par marché. Le nom GEO-Pulse FR designe l'instance francophone calibrée sur les moteurs en français. **Combien coûte la mise en place ?** La méthodologie est gratuite. Le coût opérationnel principal est le releve hebdomadaire des prompts, qui peut se faire manuellement sur quelques heures ou via une plateforme de monitoring si le budget le permet. ### Sources - [GEO: Generative Engine Optimization, Aggarwal et al., Princeton 2023](https://arxiv.org/abs/2311.09735) - [AI Overviews citation research, iPullRank](https://ipullrank.com/ai-overviews-citation-research) - [Generative engine optimization, Wikipedia, édition 2026](https://en.wikipedia.org/wiki/Generative_engine_optimization) --- ## Citation Quality Score: convertir le Share of Voice en signal commercial - URL : https://geo-academy.fr/methodologie/citation-quality-score - Description : Score qualitatif qui pondere chaque citation générative selon sa position dans la réponse, son caractere explicite et la dominance des concurrents, pour transformer un comptage brut en lecture commerciale exploitable. - Auteur : camille-lefebvre - Publie le : 2026-01-22 - Tags : methodologie, framework, citation-share, qualite, cqs **TL;DR.** Le Citation Quality Score est un framework additif qui pondere chaque mention générative selon sa position dans la réponse, son caractere explicite ou implicite, la présence de lien sortant et la dominance des concurrents. Il convertit un comptage brut de citations en signal commercial exploitable, calibré sur le marché francophone et auditable d'un releveur a l'autre. Compter les citations ne suffit pas, comme l'expliquent les [premières métriques de présence IA](/fondations/lecon-07-mesurer-presence-ia). Une marque peut être mentionnée dix fois dans une semaine de releve et ne tirer aucun benefice commercial de cette présence, parce que les mentions sont en bas de réponse, sans lien, et noyees par les citations explicites de deux concurrents en tête d'argument. Le Citation Quality Score corrige ce biais en attribuant un poids différent a chaque type de présence, pour produire un signal exploitable par les équipes commerciales et marketing. ## Pourquoi un nouveau framework Le Share of Voice génératif tel qu'on le voit dans la plupart des outils du marché francophone resté un comptage brut. Plus une marque apparaît, mieux c'est. Cette approche ignore deux réalités opérationnelles. Une mention en haut de réponse n'a pas le même effet sur la perception et le clic qu'une mention en bas de réponse. Une citation explicite avec lien sortant n'a pas le même effet qu'une mention de marque sans citation. Et la présence dominante d'un concurrent dans la même réponse dégradé activement la perception de la marque étudiée, même si elle est citée. Le CQS introduit une grille qualitative simple, additive, transparente et auditable. La formule tient en une ligne. Le bareme tient en un tableau. Les annotations sont reproductibles d'un releveur a l'autre avec un protocole clair. Le résultat est un score qui correle bien mieux avec les KPI commerciaux observes (clics, mentions de marque dans le trafic direct, demandes entrantes) que le simple Citation Share. Mike King et l'équipe d'iPullRank ont publié en 2024 une étude majeure sur les facteurs de citation dans Google AI Overviews, montrant que la position dans la réponse et la nature explicite de la citation pesaient plus que la simple fréquence, en cohérence avec le [papier Princeton sur la densite de citation](/tactiques/tactique-02-densite-citation-princeton). Le Citation Quality Score s'inscrit dans la continuite de ce travail, en proposant un instrument opérationnel calibre pour le marché francophone. ## Définition formelle Le CQS est un score additif calcule par marque, par moteur et par couche du [PromptStack 4-Layers](/methodologie/promptstack-4-layers). Chaque mention reçoit un poids selon sa nature. ### Inputs requis | Input | Définition | Volumetrie | |-------|-----------|-----------| | Réponses génératives | Captures brutes des réponses produites par les moteurs | 50 a 200 par moteur | | Annotation par mention | Type de citation parmi 4 catégories | Une annotation par mention | | Liste concurrents | Concurrents directs identifiés en amont | 3 a 10 marques | | Position dans la réponse | Top, milieu, bas de la réponse | Une position par mention | ### Outputs produits | Output | Granularite | Fréquence | |--------|------------|-----------| | CQS total marque | Marque sur tout le panier | Mensuel ou trimestriel | | CQS par moteur | Marque x moteur | Mensuel | | CQS par couche PS-4L | Marque x couche | Trimestriel | | Solde positif vs penalite | Contributions positives vs negatives | Decomposition | ### Formule de calcul ``` CQS = sum(citations_top * 3 + citations_explicit * 2 + mentions * 1 - competitor_dominant) ``` Le bareme est volontairement simple, addictif, lisible. Une citation en haut de réponse vaut 3 points. Une citation explicite avec lien ou nom complet, mais pas en tête, vaut 2 points. Une mention sans citation explicite vaut 1 point. La présence dominante d'un concurrent dans la même réponse retire 1 point. ### Bareme détaillé des annotations | Catégorie | Définition | Poids | |-----------|-----------|-------| | Top of answer | Mention dans le premier paragraphe ou la première puce | +3 | | Citation explicite | Lien sortant ou nom complet en milieu ou bas | +2 | | Mention simple | Nom évoque sans citation, sans lien | +1 | | Concurrent dominant | Concurrent cité en top of answer dans la même réponse | -1 | Une même réponse peut contribuer plusieurs fois au CQS d'une marque. Si la marque est citée en top of answer (+3) et reapparait plus bas avec un lien (+2), la réponse contribue +5. Si dans la même réponse un concurrent direct est cité en tête (-1), le solde net de la réponse est +4. Cette mecanique additive permet de capter la réalité des réponses longues, ou plusieurs marques sont evoquees a des hauteurs différentes. ## Comment annoter le panier L'annotation est l'étape critique. Mauvaise annotation, mauvais score. Le protocole se déroule en quatre passes par réponse générative. Première passé, identification de la marque étudiée dans le texte. Surligner toutes les occurrences exactes du nom de la marque, y compris ses variantes orthographiques connues (avec ou sans tirets, accents, casse). Ne pas confondre une mention de la marque avec une mention de son secteur ou d'un produit generique homonyme. Deuxième passé, codage du type. Pour chaque occurrence, décider entré Top of answer, Citation explicite, ou Mention simple, selon la grille suivante. Top of answer si l'occurrence est dans le premier paragraphe ou la première puce d'une liste, ou si elle est en gras dans la réponse synthétique. Citation explicite si l'occurrence est accompagnee d'un lien sortant, d'un numéro de citation type [1], ou d'un nom complet avec qualificatif (par exemple "selon X, leader du secteur"). Mention simple si l'occurrence est seulement le nom de la marque, en passant. Troisième passé, identification des concurrents dominants. Pour chaque réponse, lister les concurrents directs cités. Si un concurrent apparaît en top of answer (premier paragraphe ou première puce), enregistrer une penalite de -1 pour la marque étudiée, par concurrent dominant. Une réponse avec deux concurrents en tête génère -2 sur la marque étudiée, même si celle-ci est par ailleurs citée plus bas. Quatrième passé, contrôle inter-juge. Pour fiabiliser l'annotation, soumettre 10 pour cent du panier a un second releveur en aveugle. Calculer le taux d'accord et identifier les desaccords pour clarifier le protocole sur les cas borderline. Un taux d'accord inférieur a 80 pour cent indique un protocole insuffisamment spécifie, ce qui doit conduire a affiner les règles avant de continuer. L'annotation peut être semi-automatisée par un script de tagging qui pre-classe les mentions selon leur position et la présence de liens, puis fait valider par un humain. C'est la méthode recommandee a partir de paniers de plus de 100 réponses, sous peine de délais de production trop longs. ## Comment interpréter les résultats Le CQS produit un score absolu qui dépend de la taille du panier et du nombre de moteurs. La lecture pertinente est une lecture relative, dans le temps ou face aux concurrents. | Lecture | Méthode | Indicateur clé | |---------|---------|----------------| | Trend temporelle | CQS mensuel sur le même panier | Variation en pour cent | | Comparaison sectorielle | CQS de chaque marque sur même panier | Rang sectoriel | | Decomposition par moteur | CQS ventile par moteur | Moteur deficitaire | | Solde positif/negatif | Somme des +3, +2, +1 vs somme des -1 | Penalite concurrents | Trois lectures meritent une attention particulière. Le ratio penalite sur points positifs révèle la pression concurrentielle subie. Si plus de 30 pour cent des points positifs sont annules par les penalites concurrents, la marque est en environnement hostile et doit travailler son différenciation pour sortir du peloton. La part de points provenant de Top of answer mesure la qualité de la présence. Une marque dont 70 pour cent du CQS vient de Mention simple est présente sans être citée, ce qui est un signal faible. La distribution par moteur montré les zones de fragilite. Un CQS proche de zéro sur un moteur majeur est une alerte rouge a corriger en priorité. ## Cas d'application: secteur assurance habitation Un acteur français de l'assurance habitation évalue sa présence sur un panier de 100 réponses génératives reparties sur cinq moteurs, soit 500 réponses au total. L'annotation est réalisée sur deux semaines par une équipe de trois releveurs avec contrôle inter-juge. Le CQS total ressort dans une fourchette challenger, mais la decomposition est revelatrice. La part de points provenant de Top of answer est faible. La marque est présente, mais rarement en tête d'argument. La part de points provenant de Mention simple est élevée, ce qui veut dire que les moteurs evoquent la marque sans la citer formellement. Le solde des penalites concurrents est lourd. Deux concurrents historiques accaparent le top of answer sur la couche Trust et la couche Action. Le diagnostic guide trois actions concrètes. Production de pages-piliers fortement structurées sur les sujets ou la marque est mentionnée sans citation, avec ajout de [schema FAQPage et HowTo via Schema.org pour LLM](/tactiques/tactique-07-schema-org-llm), pour augmenter la probabilité que les moteurs basculent les Mentions simples vers des Citations explicites. Campagne de relations presse ciblees sur des média spécialisés de l'assurance, pour faire émerger des citations explicites en haut de réponse via des sources tierces autoritaires. Travail éditorial dédié sur les requêtes Trust ou la marque est dominee, avec contenus comparatifs et [signaux E-E-A-T renforces](/fondations/lecon-06-eeat-pour-geo) (expertise des rédacteurs, certifications, transparence sur les sinistres). Après deux trimestres, le CQS gagne une trentaine de pour cent, porte par une bascule visible de Mention simple vers Citation explicite, et par une réduction des penalites concurrents sur la couche Trust. Sans le bareme qualitatif, l'équipe aurait conclu a une stagnation du Citation Share brut, alors que la qualité de la présence avait significativement progresse. ## Limites et évolutions prévues Trois limites a connaître. D'abord, la frontière entré Citation explicite et Mention simple peut être subjective. Le protocole impose la présence d'un lien ou d'un qualificatif, mais certains cas restent borderline (une marque citée suivie d'une parenthese descriptive sans lien). Le contrôle inter-juge corrige ce biais sans l'éliminer. Les versions ulterieures du framework introduiront un sous-bareme plus fin pour Citation explicite, distinguant lien sortant, numéro de note de bas et description avec qualificatif. Ensuite, la penalite concurrents est limitee a -1 par concurrent dominant, ce qui plafonne la pression a 3 ou 4 points par réponse dans la pratique. Pour des secteurs très concentrés ou trois ou quatre concurrents truste systématiquement le top of answer, cette penalite peut sembler insuffisante. Une option de tuning sectoriel sera proposée dans CQS v.2026.10, permettant aux marchés concentrés de monter la penalite a -2. Enfin, le CQS ne capture pas le sentiment des mentions. Une marque peut être citée 3 fois en top of answer avec un sentiment negatif, ce qui produirait un CQS positif élevé mais un effet commercial nul. Pour cette dimension, le CQS se combine avec la composante Sentiment du [GEO-Pulse FR](/methodologie/geo-pulse-fr), qui apporte le correctif manquant. Les évolutions sont publiées chaque trimestre dans le changelog public. La prochaine version, CQS v.2026.07, integrera une catégorie supplémentaire Citation source primaire, qui distinguera les citations menant directement vers le site de la marque des citations menant vers un média tiers. ## Licence et reutilisation Le Citation Quality Score est publié sous licence Creative Commons CC BY 4.0. Toute reutilisation, adaptation ou redistribution est autorisee, y compris a usage commercial, sous réserve de citer la source. Citation conseillee: [Lefebvre C.](/auteurs/camille-lefebvre), Citation Quality Score v.2026.01, Academie GEO, geo-academy.fr. Le bareme d'annotation, le guide du releveur et un mini-jeu de données d'entraînement (50 réponses génératives anonymisees déjà annotees) sont disponibles en version pédagogique pour les étudiants, chercheurs et formateurs francophones, sur demande a méthodologie at geo-academy.fr. Les contributions de l'équipe d'iPullRank et de Mike King sur les facteurs de citation dans AI Overviews ont nourri la conception du framework, et l'équipe éditoriale tient a saluer publiquement leur travail de référence. Les retours terrain et propositions d'amélioration sont accueillis avec intérêt et credites nominativement dans le changelog du framework. ### FAQ **Quelle est la différence entre Citation Quality Score et Citation Share ?** Le Citation Share compte les mentions de manière brute, sans pondération. Le CQS pondere chaque mention selon sa position, son caractere explicite, son lien sortant et la dominance des concurrents dans la même réponse. **Comment calcule-t-on le CQS d'une marque ?** Le score est additif. Chaque mention reçoit un poids de 1 a 5 selon le bareme. On somme les poids sur le panier de prompts, on divise par le nombre maximal possible et on multiplie par 100 pour obtenir un score normalise. **Pourquoi un nouveau framework et pas un outil de marché ?** Les outils du marché francophone restent sur un comptage brut. Le CQS introduit une grille qualitative simple, transparente et auditable, qui n'exige pas d'abonnement a une plateforme spécifique. **Faut-il une équipe technique pour mettre en place le CQS ?** Non. Le CQS est conçu pour être operable dans un tableur. Le bareme tient en quelques lignes et l'annotation est faite par un releveur qualifié, pas par un script. **Avec quelle fréquence faut-il calculer le CQS ?** Une cadence mensuelle ou trimestrielle convient pour la plupart des marques. Une cadence hebdomadaire est utile sur des marchés très dynamiques mais demande un effort d'annotation soutenu. **Le CQS remplace-t-il le Share of Answer ?** Non. Le Share of Answer reste utile comme indicateur de surface. Le CQS s'utilise en complément pour mesurer la qualité commerciale de cette présence. ### Sources - [AI Overviews citation research, Mike King, iPullRank](https://ipullrank.com/ai-overviews-citation-research) - [GEO: Generative Engine Optimization, Princeton 2023](https://arxiv.org/abs/2311.09735) - [Aleyda Solis, édition 2026, SEOFOMO](https://www.seofomo.co/) --- # Guides ## Guide complet pour débuter en GEO en 2026 - URL : https://geo-academy.fr/guides/guide-debuter-en-geo-en-2026 - Description : Le parcours d'amorcage en sept chapitres pour passer de la curiosite a une mesure opérationnelle de la visibilité IA. Pour les équipes qui partent de zéro. - Auteur : theo-roux - Publie le : 2026-04-12 - Tags : debutant, guide, fondations **TL;DR.** Guide en sept chapitres pour passer de zero a une mesure operationnelle de la visibilite IA. Lecture lineaire conseillee, un week-end studieux suffit. Chapitre 1: distinguer SEO, AEO, GEO, LLMO. Chapitre 2: cartographier les moteurs cibles. Chapitre 3: construire un prompt set en quatre couches. Chapitre 4: lire un rapport de citations. Chapitre 5: passer du diagnostic a une feuille de route. Chapitre 6: rituel hebdomadaire d'analyse. Chapitre 7: eviter les sept erreurs typiques. Chaque chapitre se termine par un exercice realisable dans la journee. Ce guide s'adresse aux équipes qui n'ont jamais mesure leur visibilité sur les moteurs IA et qui voudraient démarrer sans bricoler. Lecture lineaire conseillee, en sept chapitres. Chaque chapitre se terminé par un exercice realisable dans la journee, avec une commande ou un livrable concret. Un week-end studieux suffit pour suivre le tout. Une semaine si vous voulez le faire avec votre équipe. ## Chapitre 1. Comprendre la différence entre SEO, AEO, GEO et LLMO Le marché du Search a empile les sigles ces dernières années. Quatre termes reviennent souvent. Le SEO, vous le connaissez : optimiser pour les pages de résultats classiques avec dix liens bleus, c'est-a-dire pour Google, Bing et Yandex tels qu'ils existaient avant 2023. L'AEO désigne l'Answer Engine Optimization, c'est-a-dire l'optimisation pour les featured snippets et la recherche vocale, ou la réponse est extractive plutôt que synthétisée. Le GEO, le sujet du magazine, désigne le Generative Engine Optimization, c'est-a-dire l'optimisation pour les réponses synthetisees par un modèle de langage, avec citations explicites ou non. Le LLMO, enfin, désigne la Large Language Model Optimization : optimiser pour le bagage paramétrique d'un modèle, c'est-a-dire la connaissance qu'il a memorisee a l'entraînement, et qui ressort même en l'absence de citation. Ces frontières ne sont pas etanches, comme l'expose la [tactique sur la frontière AEO vs GEO](/tactiques/tactique-06-aeo-vs-geo-frontiere). En pratique, la même équipe travaille souvent sur les quatre simultanément. Mais comprendre laquelle des quatre disciplines vous est en train d'évoquer est une condition prealable a toute conversation utile. Si quelqu'un parle de "GEO" en evoquant uniquement les featured snippets, il parle en réalité d'AEO. Si quelqu'un évoque la "présence dans ChatGPT" sans distinguer le mode Search avec citations du mode hors Search avec connaissance paramétrique, il melange GEO et LLMO, distinction abordee par la [leçon citation vs ingestion](/fondations/lecon-03-citation-vs-ingestion). **Exercice du chapitre.** Sur un tableau a deux colonnes, posez sur la gauche les questions que vos prospects posent typiquement. Sur la droite, classifiez chaque question dans une des quatre catégories. Cet exercice prend une demi-heure et clarifie immédiatement ou la valeur reside. ## Chapitre 2. Cartographier les moteurs cibles selon votre audience Cinq moteurs concentrent l'essentiel des conversations en avril 2026 : ChatGPT Search, Perplexity, Google AI Overviews et AI Mode, Gemini, Bing Copilot, comme le détaille la [cartographie des moteurs génératifs en 2026](/fondations/lecon-02-cartographie-moteurs-generatifs). Claude (claude.ai web search) commence a peser pour les audiences techniques et d'entreprise. You.com, Komo, Andi sont des outsiders dont la pertinence dépend du marché. Vouloir tout couvrir des le premier mois est une erreur tactique. Vouloir n'en couvrir qu'un seul est une autre erreur. La règle pratique du magazine : commencer par trois moteurs choisis selon votre audience réelle. Pour un B2B francophone, ChatGPT Search, Perplexity et Google AI Overviews suffisent comme socle. Pour une marque grand public, ajouter Bing Copilot. Pour une audience technique exigeante, ajouter Claude. Une fois les trois moteurs choisis, definissez la fréquence de releve : hebdomadaire suffit pour les marques établies, bimensuelle peut convenir si votre marché bouge lentement. Les pros qui suivent quotidiennement mesurent du bruit, pas du signal. **Exercice du chapitre.** Etablissez une fiche d'une page mentionnant : votre audience principale, vos trois moteurs prioritaires, la fréquence de releve, le poste responsable de la collecte. Cette fiche est votre charte de monitoring. Elle dure six mois. ## Chapitre 3. Construire un premier prompt set en quatre couches Le [PromptStack 4-Layers](/methodologie/promptstack-4-layers) est le framework signature du magazine pour structurer un prompt set. La logique est simple : decomposer les questions en quatre paliers correspondant a quatre moments du parcours d'achat. | Couche | Intention | Exemple de prompt | |--------|-----------|-------------------| | Discovery | Découvrir des options | "Quel outil utilisé-t-on pour facturer en France ?" | | Comparison | Comparer des solutions | "Qonto contre Shine, lequel est le plus utilisé ?" | | Trust | Vérifier la fiabilité | "Qonto est-il fiable et bien évalue par ses clients ?" | | Action | Passer a l'action | "Comment souscrire a un compte Qonto en France ?" | Pour débuter, viser seize prompts, soit quatre par couche. Chaque prompt doit être joue trois fois sur chacun des trois moteurs cibles, soit cent quarante-quatre executions au total. C'est tenable pour une équipe d'une personne en deux après-midi de focus. L'erreur la plus courante consiste a se concentrer sur la couche Discovery, parce que c'est la plus visible. Or les couches Trust et Action sont souvent celles ou la marque perd la conversation : un concurrent jugé plus fiable ou un signal de friction implicite suffit a faire basculer le prospect. **Exercice du chapitre.** Generez votre premier prompt set via le generateur en libre acces du magazine, dans la rubrique outils interactifs. Personnalisez les seize prompts pour qu'ils sonnent comme des questions réelles de votre marché. Sauvegardez-les dans un fichier texte. ## Chapitre 4. Lire un rapport de citations sans se laisser noyer Une fois les prompts joues, vous avez devant vous cent quarante-quatre réponses textuelles. Le piège est de tout vouloir analyser. La méthode du magazine : repérer trois signaux et seulement trois, dans cet ordre. Le premier signal est le **Share of Answer**, c'est-a-dire le pourcentage de réponses ou votre marque est citée. Si elle apparaît dans douze réponses sur cent quarante-quatre, votre Share of Answer est de huit pour cent. Très simple a calculer. Sans equivoque. Le deuxième signal est la **position dans la réponse** : votre marque est-elle citée en tête, au milieu, ou en queue de réponse ? Le top of answer vaut commercialement plus que la queue. Pour aller plus loin, le [framework Citation Quality Score](/methodologie/citation-quality-score) du magazine pondere ces positions, mais on peut commencer plus simplement : compter separement les citations top et les autres. Le troisième signal est le **mix des concurrents cités**. Quelles marques apparaissent en alternative quand la votre n'est pas citée ? La présence systématique d'un concurrent dans les couches Discovery est un signal fort. Si Maiia, KelDoc et Qare reviennent dans 80% des réponses Discovery santé en France, vous savez ou est la conversation. **Exercice du chapitre.** Tabulez les trois signaux dans une feuille de calcul a quatre colonnes : prompt, moteur, votre marque citée oui ou non, position. Comptez. Vous avez votre premier dashboard. ## Chapitre 5. Passer du diagnostic a une feuille de route trimestrielle Le diagnostic n'est utile que s'il debouche sur des actions. Le magazine recommande une feuille de route en trois mois, articulee autour de trois questions : ou est-ce que je perds la conversation, pourquoi est-ce que je la perds, qu'est-ce qui peut bouger en quatre-vingt-dix jours. Pour répondre au "pourquoi", trois pistes sont quasi systématiques. Première piste, votre [présence sur Wikidata](/tactiques/tactique-13-entites-wikidata) est-elle complète et a jour ? Si la réponse est non, c'est la première brique a poser. Deuxième piste, la presse tier-1 vous a-t-elle cité dans les douze derniers mois ? Si non, ouvrir un effort de relations presse cible. Troisième piste, vos pages produit contiennent-elles des citations de tiers crédibles, des données chiffrees sourcees, des temoignages dates ? Si non, lancer une revision éditoriale via le [protocole de réécriture en 7 passes](/tactiques/tactique-15-reecriture-pour-citation). Pour le "qu'est-ce qui peut bouger", la réponse dépend de votre stade. Pour une marque obscure, l'objectif raisonnable a quatre-vingt-dix jours est de passer de zéro a quelques pour cent de Share of Answer en couche Discovery. Pour une marque déjà visible, l'objectif est plutôt d'augmenter la part top of answer. **Exercice du chapitre.** Redigez en une page votre feuille de route quatre-vingt-dix jours. Trois objectifs maximum, chacun avec un livrable et une date. Affichez-la quelque part de visible. ## Chapitre 6. Mettre en place un rituel hebdomadaire d'analyse Sans rituel, la mesure devient un projet ponctuel sans suivi. Le magazine recommande un rituel d'une heure par semaine, découpe en trois sequences. Première sequence, vingt minutes : rejouer le prompt set sur les trois moteurs. Deuxième sequence, vingt minutes : actualiser le Share of Answer et les positions. Troisième sequence, vingt minutes : écrire trois lignes dans un journal partage avec l'équipe pour memoriser ce que vous avez vu cette semaine. Le journal partage est l'arme la plus sous-estimee. Après douze semaines, vous avez un historique commente qui vous permet de détecter les drifts, les nouveaux concurrents, les changements de posture des moteurs. Sans ce journal, vous redecouvrez chaque trimestre les mêmes constats. **Exercice du chapitre.** Bloquer dans votre agenda un creneau hebdomadaire récurrent d'une heure intitule "GEO : releve et journal". Sans rituel, pas de discipline. ## Chapitre 7. Éviter les sept erreurs typiques du débutant Le magazine a publié une [leçon dédiée aux sept erreurs débutant](/fondations/lecon-09-erreurs-debutant). Pour la commodite de ce guide, voici la version courte. Ne pas confondre présence paramétrique et présence avec citation. Ne pas se concentrer uniquement sur Discovery au detriment de Trust et Action. Ne pas mesurer trop souvent : la donnée hebdomadaire suffit. Ne pas mesurer trop rarement : la donnée mensuelle laisse passer trop de drifts. Ne pas comparer brutalement Share of Answer entré secteurs. Ne pas confondre Share of Answer et Share of Voice IA, qui n'ont pas la même définition selon les outils. Et surtout : ne pas commander un audit a un consultant qui refuse de communiquer son prompt set et son protocole. Si la méthode n'est pas publique, le chiffre ne vaut pas grand-chose. **Exercice du chapitre.** Imprimez cette liste de sept erreurs et collez-la a côté de votre rituel hebdomadaire. C'est votre garde-fou. ## Pour aller plus loin Ce guide vous amene au seuil. La suite logique est de lire les rubriques Tactiques avancees du magazine, en commençant par l'[article sur le query fan-out](/tactiques/tactique-01-anatomie-query-fan-out) et celui sur la [densite de citation Princeton](/tactiques/tactique-02-densite-citation-princeton). Si vous etes en mesure de pratiquer, le calculateur Citation Quality Score et le generateur de prompt set vous attendent dans la rubrique outils interactifs. Pour un cas concret, les cinq études de cas françaises montrent comment la méthode s'applique a [Doctolib](/etudes-de-cas/doctolib), [Qonto](/etudes-de-cas/qonto), [Alan](/etudes-de-cas/alan), [Mirakl](/etudes-de-cas/mirakl) et [Octopus Energy](/etudes-de-cas/octopus-energy). Une dernière remarque utile. Le GEO est jeune. Les outils, les moteurs et les pratiques bougent tous les mois. Ce guide vaut pour avril 2026. Il sera réédité annuellement. Les lecteurs qui souhaitent être prevenus des mises a jour peuvent s'abonner a La Lettre Academie GEO, qui publié chaque vendredi un point de veille commente. ### FAQ **Combien de temps faut-il pour lire ce guide ?** 22 minutes de lecture pour le contenu, plus 1 a 2 heures par chapitre si l'on fait l'exercice associe. Un week-end studieux suffit pour faire les sept exercices. Une semaine en mode equipe pour aligner plusieurs personnes. **Le guide convient-il a une equipe qui n'a jamais fait de GEO ?** Oui, c'est sa cible explicite. Aucun prerequis technique au-dela d'une connaissance basique du SEO classique. Les concepts sont introduits progressivement et chaque chapitre construit sur le precedent. **Faut-il acheter un outil pour suivre le guide ?** Non. Les exercices sont realisables avec Google Sheets, un acces aux moteurs grand public, et eventuellement les API ChatGPT/Perplexity (quelques euros). L'achat d'un outil paye n'est pas necessaire avant le mois 2 ou 3. **Qui a ecrit ce guide ?** Theo Roux, fondateur d'Academie GEO, en s'appuyant sur les references francophones (Vincent Terrasi) et anglophones (Mike King iPullRank, Aleyda Solis, Olaf Kopp). Le guide reprend les fondamentaux du papier Princeton 2311.09735 et les adapte au marche francais. **Le guide est-il a jour avec les evolutions 2025-2026 ?** Oui, redaction d'avril 2026. Il integre Google AI Mode, le custom prompt tracking d'Ahrefs (decembre 2025), Bing AI Performance (fevrier 2026) et les pratiques actuelles. Le guide sera maintenu en fonction des evolutions des moteurs. **Quel chapitre sauter si on est presse ?** Aucun n'est dispensable, mais le 6 (rituel hebdomadaire) peut etre lu apres avoir pratique 1 a 3 mois. Les chapitres 1, 2, 3 sont prerequis et le 7 (erreurs typiques) gagne a etre lu en debut de parcours pour eviter les pieges. ### Sources - [GEO: Generative Engine Optimization](https://arxiv.org/abs/2311.09735) — Aggarwal et al., 2023 - [llms.txt spécification](https://llmstxt.org) — Jeremy Howard, Answer.AI - [Expanding queries with fan-out, iPullRank](https://ipullrank.com/expanding-queries-with-fanout) — Mike King - [Formation AI Search GEO, FormaSEO](https://www.formaseo.fr/formation-ai-search-geo/) — Vincent Terrasi - [Brand Context Optimization](https://www.kopp-online-marketing.com/what-is-brand-context-optimization-for-geo) — Olaf Kopp --- # Glossaire ## AEO - URL : https://geo-academy.fr/glossaire/aeo - Definition : Ensemble des techniques destinees a obtenir une presence dans les Featured Snippets, People Also Ask et reponses extractives directes des moteurs (Google, Bing). Souvent confondu avec GEO mais distinct techniquement. Aliases : Answer Engine Optimization, Optimisation pour moteurs de reponse. --- ## Brand Context Optimization - URL : https://geo-academy.fr/glossaire/brand-context-optimization - Definition : Discipline d'optimisation des donnees de contexte de marque (entites, identites, citations, knowledge graph) pour maximiser la probabilite de citation par les moteurs generatifs. Aliases : BCO, Optimisation du contexte de marque. --- ## Chunk Relevance - URL : https://geo-academy.fr/glossaire/chunk-relevance - Definition : Score interne attribue par les LLM a chaque morceau de texte (chunk) extrait d'une page lors du retrieval. Une chunk relevance elevee augmente la probabilite de citation. Aliases : Chunk score, Pertinence par chunk. --- ## Citation Density - URL : https://geo-academy.fr/glossaire/citation-density - Definition : Nombre de citations sources externes pour un volume de texte donne (typiquement par 100 mots ou par chunk). Levier majeur identifie par le papier Princeton GEO 2024. Aliases : Densite de citations, Citation per chunk. --- ## Citation Share - URL : https://geo-academy.fr/glossaire/citation-share - Definition : Pourcentage de reponses d'un moteur generatif ou une marque donnee est citee, sur un panier de prompts identifie. Aliases : Share of Citation, Part de citation. --- ## E-E-A-T - URL : https://geo-academy.fr/glossaire/eeat - Definition : Cadre Google de quatre signaux servant aux quality raters et indirectement aux algorithmes : Experience, Expertise, Authoritativeness, Trustworthiness. Premier E ajoute en decembre 2022. Aliases : Experience Expertise Autorite Fiabilite, Quality Rater Guidelines E-A-T. --- ## Embedding - URL : https://geo-academy.fr/glossaire/embedding - Definition : Representation numerique d'un texte sous forme de vecteur dans un espace de haute dimension. Les LLM comparent les embeddings d'une requete et d'un chunk pour decider quels contenus citer. Aliases : Vector embedding, Plongement vectoriel. --- ## Entity Resolution - URL : https://geo-academy.fr/glossaire/entity-resolution - Definition : Processus par lequel un LLM associe un nom (personne, marque, produit) a une entite unique identifiable, typiquement via un Q-node Wikidata ou une URL canonique de site officiel. Aliases : Resolution d'entite, Disambiguation. --- ## GEO - URL : https://geo-academy.fr/glossaire/geo - Definition : Ensemble des pratiques destinees a faire citer un contenu par un moteur de recherche fonde sur un modele de langage (ChatGPT Search, Perplexity, Google AI Overviews). Aliases : Generative Engine Optimization, SEO generatif. --- ## Information Gain Score - URL : https://geo-academy.fr/glossaire/information-gain - Definition : Concept issu d'un brevet Google decrit comment ranker un second ensemble de pages selon ce qu'elles ajoutent au-dela de celles deja consultees par l'utilisateur. Devenu signal de ranking #1 selon plusieurs analyses 2026. Aliases : Score d'apport informationnel, IGS. --- ## Knowledge Graph - URL : https://geo-academy.fr/glossaire/knowledge-graph - Definition : Representation structuree d'entites et de leurs relations dans un graphe interconnecte. Wikidata, Google Knowledge Graph et les KG d'entreprise sont les principaux pour le GEO. Aliases : Graphe de connaissances, KG. --- ## LLM Readability - URL : https://geo-academy.fr/glossaire/llm-readability - Definition : Capacite d'une page a etre correctement extraite et comprise par un large language model lors du retrieval. Combine structure HTML semantique, schema.org, et qualite redactionnelle. Aliases : Lisibilite LLM, Machine readability. --- ## LLMO - URL : https://geo-academy.fr/glossaire/llmo - Definition : Ensemble des techniques destinees a apparaitre dans les reponses generees par un modele de langage a partir de ses donnees d'entrainement (sans recherche temps reel). Aliases : Large Language Model Optimization, Optimisation pour modele de langage. --- ## llms.txt - URL : https://geo-academy.fr/glossaire/llms-txt - Definition : Fichier markdown propose par Jeremy Howard (Answer.AI, septembre 2024) liste les ressources cles d'un site avec descriptions, dans l'idee de servir les moteurs IA. Adoption mesuree, efficacite contestee. Aliases : Fichier llms.txt, Protocole llms.txt. --- ## Prompt set - URL : https://geo-academy.fr/glossaire/prompt-set - Definition : Ensemble curate de questions ou requetes representatives d'un domaine, joue plusieurs fois sur plusieurs moteurs IA pour mesurer la presence d'une marque dans les reponses. Aliases : Panier de prompts, Jeu de prompts. --- ## Pyramide inversee - URL : https://geo-academy.fr/glossaire/inverted-pyramid - Definition : Structure journalistique qui place l'information critique en tete (TL;DR, lead), puis les details, puis le contexte. Adoptee massivement en 2026 pour optimiser l'extraction LLM (chunks et featured snippets). Aliases : Inverted pyramid, Structure inverted-pyramid. --- ## Query Fan-Out - URL : https://geo-academy.fr/glossaire/query-fan-out - Definition : Technique utilisee par les moteurs generatifs (Google AI Mode, ChatGPT, Gemini, Perplexity) pour decomposer une requete utilisateur en multiples sous-requetes laterales executees en parallele, dont les passages cites alimentent la reponse finale. Aliases : Fan-out de requete, Decomposition multi-requetes. --- ## RAG - URL : https://geo-academy.fr/glossaire/rag - Definition : Architecture qui combine un moteur de recherche (retrieval) et un modele de langage (generation), pour produire des reponses fondees sur des sources externes recuperees au moment de la requete. Aliases : Retrieval Augmented Generation, Generation augmentee par recuperation. --- ## Share of Answer - URL : https://geo-academy.fr/glossaire/share-of-answer - Definition : Pourcentage de reponses d'un moteur generatif sur un prompt set donne ou la marque cible apparait, citee ou mentionnee, en valeur absolue (sans ponderation). Aliases : Share of Voice IA, SoV IA. --- ## Speakable Schema - URL : https://geo-academy.fr/glossaire/speakable-schema - Definition : Propriete schema.org permettant d'identifier les sections d'une page particulierement adaptees a la lecture vocale par les assistants. Critique pour Google Assistant et la decouverte vocale d'AI Overviews. Aliases : speakable, SpeakableSpecification. --- # Datasets ouverts ## Annuaire des bots IA actifs en 2026 - URL : https://geo-academy.fr/datasets/bots-ia-2026 - Description : Inventaire structure des crawlers et agents IA majeurs en 2026: user agent, operateur, fonction, respect robots.txt, comportement. Mise a jour trimestrielle. - Methodologie : Liste construite a partir de la documentation officielle des operateurs (OpenAI, Anthropic, Perplexity, Common Crawl, Microsoft, Google), recoupee avec les threads de signalement r/SEO et r/TechSEO en 2025-2026, et avec les logs serveurs des sites partenaires d'Academie GEO. Chaque bot est verifie sur trois criteres : user agent declare, comportement observe, respect de robots.txt. Les chiffres de frequence sont qualitatifs (rare, occasionnel, frequent, tres frequent). - Lignes : 12 - Frequence : trimestrielle - Licence : CC BY 4.0 - Endpoint JSON : https://geo-academy.fr/datasets/bots-ia-2026.json --- ## Annuaire des outils GEO et AI search - URL : https://geo-academy.fr/datasets/outils-geo-2026 - Description : Inventaire commente de 30 outils de monitoring et d'optimisation pour la visibilite IA. Positionnement, prix, cible, moteurs couverts. Mise a jour mensuelle. - Methodologie : Liste construite a partir des outils explicitement positionnes "GEO", "AI search visibility" ou "LLM citation tracking" en avril 2026. Sources : sites editeurs, AthenaHQ Top 10 GEO Tools, Bear AI Best Tools, SitePoint, presse SEO/marketing. Chaque entree est verifiee sur trois criteres : positionnement officiel, fourchette de prix publique (ou "sur devis"), moteurs couverts declares. Une note rapide est attribuee par la redaction sur la base d'un test produit ou d'une demo. Mise a jour mensuelle. - Lignes : 30 - Frequence : mensuelle - Licence : CC BY 4.0 - Endpoint JSON : https://geo-academy.fr/datasets/outils-geo-2026.json --- ## Adoption du fichier llms.txt par les sites francophones - URL : https://geo-academy.fr/datasets/llms-txt-adoption-fr - Description : Mesure de l'adoption du fichier llms.txt sur un panel de 30 sites francophones de reference (medias, SaaS, e-commerce, institutions). Releve d'avril 2026. - Methodologie : Panel de 30 sites francophones identifies par categorie (medias 7, SaaS 7, e-commerce 7, institutions 5, blogs SEO 4). Verification automatisee par GET https://[domaine]/llms.txt. Statut HTTP, taille du fichier, conformite a la specification minimale (H1, blockquote description, au moins une section H2 avec liens markdown). Releve effectue le 2026-04-15. Mise a jour mensuelle. Limites : panel non exhaustif, biais vers sites editoriaux soignes. - Lignes : 30 - Frequence : mensuelle - Licence : CC BY 4.0 - Endpoint JSON : https://geo-academy.fr/datasets/llms-txt-adoption-fr.json ---