Mesurer la couverture fan-out d'une page: méthode et résultats sur dix sites français
Méthodologie et premiers résultats d'une étude maison sur la couverture fan-out de dix sites français, conduite en avril 2026.
Par
Camille LefebvreÉditrice senior, Recherche & Outils
couvre les outils SEO et l'architecture des moteurs génératifs depuis 2018
Cet article présente la deuxième étude maison de la rubrique tactiques avancees. Camille Lefebvre a mesure la couverture fan-out de dix sites français en avril 2026 : pour chaque site, sur une requête cible donnée, quelle proportion des sous-requêtes générées par le query fan-out de Google AI Mode est effectivement traitée par le contenu du site ? Le dispositif s’inspire du simulateur Qforia de Mike King et resté rejouable. Les chiffres sont des estimations issues d’un panel test interne, pas une étude scientifique formelle.
La notion de couverture fan-out
Le query fan-out génère, pour une requête principale, un ensemble de sous-requêtes parallèles. Le nombre varie de cinq a trente selon la complexité. Une page web qui ne traite qu’une partie de ces sous-requêtes laissera l’autre partie a la concurrence. La métrique de couverture fan-out mesure quelle proportion des sous-requêtes générées est effectivement adressee par le contenu de la page.
Mathematiquement : couverture = (nombre de sous-requêtes traitées) / (nombre total de sous-requêtes générées). Une couverture de 100 pour cent signifie que la page répond a chaque sous-question générée, indicateur formalisé dans notre méthodologie Fan-Out Coverage Index. Une couverture de 30 pour cent signifie que la page laisse passer les deux tiers des sous-questions.
L’intérêt pratique : sur une requête dont le fan-out génère quinze sous-requêtes, une page qui en couvre douze a un avantage massif sur une page qui en couvre cinq. Les deux pages peuvent ranker sur la requête principale en SEO classique, mais leur visibilité differe énormément quand la requête est traitée en mode génératif.
Le protocole de mesure
Le protocole tient en cinq étapes.
Étape un. Sélectionner une requête cible representative pour le site. Pour chaque site testé, nous avons choisi la requête qui drive le plus de trafic SEO, en consultant Search Console (acces partage par les sites partenaires). Cela permet une comparaison entré sites sur leur “requête reine”.
Étape deux. Générer le fan-out de cette requête via Qforia. L’outil donné une liste de sous-requêtes sans coverage parfait du fan-out réel de Google, mais une approximation acceptable et publiquement reproductible.
Étape trois. Lister les sous-requêtes générées et les annoter par type (informationnelle, comparative, sous-aspect, réputation, après-vente, etc.).
Étape quatre. Lire la page-cible du site (la page la mieux positionnée sur la requête principale) et évaluer pour chaque sous-requête si la page contient une réponse exploitable. L’évaluation est faite manuellement, par deux relecteurs, avec accord requis.
Étape cinq. Calculer le ratio de couverture pour chaque site et comparer.
Le panel : dix sites français, repartis sur cinq verticales (santé, finance, voyage, tech, e-commerce). Pour chaque site, une seule requête-cible analysee. Le fan-out génère a produit, en moyenne, dix-sept sous-requêtes par site (mediane 16, min 11, max 24).
Les résultats
Le tableau suivant résumé les couvertures mesurees, anonymisees par lettre.
| Site | Verticale | Sous-requêtes | Couvertes | Couverture |
|---|---|---|---|---|
| A | Santé | 19 | 14 | 74 pour cent |
| B | Finance | 16 | 9 | 56 pour cent |
| C | E-commerce | 22 | 11 | 50 pour cent |
| D | Voyage | 14 | 6 | 43 pour cent |
| E | Tech | 18 | 7 | 39 pour cent |
| F | Santé | 17 | 6 | 35 pour cent |
| G | E-commerce | 16 | 5 | 31 pour cent |
| H | Voyage | 11 | 3 | 27 pour cent |
| I | Tech | 24 | 5 | 21 pour cent |
| J | Finance | 15 | 3 | 20 pour cent |
La moyenne s’établit a 38 pour cent. La dispersion est forte : du simple a presque le quadruple entre le pire et le meilleur. La mediane (37 pour cent) est très proche de la moyenne, ce qui indique une distribution sans valeurs extrêmes deformantes.
Lecture des résultats
Trois observations meritent commentaire.
Première observation, l’écart entré A et J. Le site A (santé) couvre 74 pour cent des sous-requêtes générées. Sa page-cible est un dossier de fond de plus de deux mille mots, structure en quinze sections H2/H3, qui aborde aussi bien les aspects techniques que les questions de cout, de remboursement, de délais et de risques. Le site J (finance), a l’oppose, a une page-cible courte (quatre cents mots) qui répond a la question principale mais ignore les sous-aspects.
L’écart de couverture s’explique presque entierement par cette différence de profondeur éditoriale. Ce n’est pas une question de niche ni de domain rating. Le site A et le site F sont sur la même verticale (santé) avec des autorités comparables, et leur couverture differe du simple au double. C’est la conception éditoriale de la page-cible qui fait la différence.
Deuxième observation, les sous-requêtes systématiquement non couvertes. En croisant les dix analyses, certaines catégories de sous-requêtes sont systématiquement ignorées par les sites du panel. Les sous-requêtes de réputation (“X est-il fiable”, “avis sur X”) sont rarement traitées explicitement par les pages-cibles, qui sont en général pour les marques elles-mêmes (les sites ne disent pas “Cabinex est fiable”, ils le presupposent). Les sous-requêtes d’après-vente (“délai de remboursement”, “garantie X”, “annulation X”) sont également souvent absentes des pages produit principales. Enfin, les sous-requêtes de comparaison (“X vs Y”, “alternatives a X”) sont le plus souvent absentes du contenu propre des marques (qui evitent de citer la concurrence).
Troisième observation, la verticale n’est pas determinante. On aurait pu penser que certaines verticales (ex : santé) ont structurellement une meilleure couverture parce que les pages y sont plus longues. Les données ne le confirment pas : la verticale e-commerce a un site a 50 pour cent et un autre a 31 pour cent. La santé a 74 pour cent et 35 pour cent. La conception éditoriale individuelle prime sur la verticale.
Les références méthodologiques
Camille Lefebvre s’est appuye sur les travaux de Mike King (iPullRank) pour la conception du protocole. Mike King est l’auteur du simulateur Qforia, premier outil public pour observer le query fan-out de Google AI Mode. Sa conference SearchLove de 2024 a fourni le cadre conceptuel de la couverture fan-out, et son extension Chrome de 2025 a permis aux équipes françaises d’observer les requêtes XHR de AI Mode pour valider les approximations Qforia.
L’étude reprend également la grille de classification des sous-requêtes que Mike King a esquissee dans plusieurs publications de blog en 2024 et 2025. La grille distingue six familles que nous avons reprises plus haut.
Limites de l’étude
L’étude a plusieurs limites importantes a nommér.
D’abord, l’echantillon est petit. Dix sites ne suffisent pas a généraliser. Une replication a cinquante ou cent sites est nécessaire pour stabiliser les chiffres.
Ensuite, l’évaluation manuelle est subjective. Déterminer si une page “couvre” une sous-requête demande un jugement humain qui peut varier d’un evaluateur a l’autre. Nous avons travaille a deux relecteurs avec accord requis, mais la mesure n’est pas parfaitement reproductible.
Enfin, Qforia est une approximation. Le simulateur ne reproduit pas exactement le fan-out réel de Google AI Mode. Il s’en approche, mais les écarts sont possibles. Une étude plus rigoureuse demanderait l’acces aux requêtes XHR réelles via l’extension iPullRank, sur un volume suffisant pour stabiliser le pattern.
Les chiffres communiques sont donc des estimations indicatives, qui donnent un ordre de grandeur. La conclusion principale (la couverture fan-out moyenne sur les sites français est faible, avec une forte dispersion) est probablement robuste, mais le chiffre exact de 38 pour cent est sujet a revision.
Comment améliorer la couverture
Pour une équipe qui voudrait améliorer sa propre couverture, la démarche tient en quatre étapes simples.
Premièrement, lancer le fan-out de la requête cible via Qforia et lister les sous-requêtes générées. Deuxièmement, classer ces sous-requêtes par type (informationnelle, comparative, sous-aspect, réputation, après-vente). Troisièmement, lire la page-cible et identifier les sous-requêtes non couvertes. Quatrièmement, ajouter une section a la page pour chaque sous-requête non couverte, avec une réponse exploitable de cent cinquante a deux cent cinquante mots.
L’effort représente généralement deux a quatre heures de travail éditorial par page-cible, formalisable via le protocole de réécriture en 7 passes. Le retour est immédiatement visible dans le taux de citation par AI Mode, mesurable avec un montage de monitoring en continu. Sur les pages que nous avons retravaillees après l’audit, l’amélioration de couverture s’est traduite par une augmentation moyenne du taux de citation, mais cette mesure n’est pas formellement établie sur le panel court.
Que faire quand on est a J
Le site J (couverture 20 pour cent) illustre un cas extrême. Sa page-cible est une page produit courte, optimisee pour le SEO classique avec une promesse claire et un appel a l’action visible. Elle convertit bien en SEO classique, parce que les utilisateurs qui arrivent sur la page sont près de l’achat.
Le problème : sur le mode génératif, cette page est peu citée parce qu’elle ne couvre presque rien des sous-questions que l’utilisateur pose en amont de l’achat. Le fan-out demande une page qui informé, compare, rassure, anticipe. La page J ne fait que promettre.
La solution n’est pas de detruire la page J. C’est de la doubler par un contenu de fond (article ou guide) qui couvre les sous-aspects manquants, en lien avec la page produit. La structure devient : un article ressource qui couvre 80 pour cent du fan-out, qui pointe vers la page produit pour la conversion. C’est le pattern hub-and-spoke applique au GEO. Solene Marchais détaillé cette structure dans la rubrique fondations. C’est probablement le levier structurel le plus efficace pour les marques dont les pages-cibles sont trop courtes.
Fact-checks de cet article
Les affirmations chiffrees ou contestables de l'article sont systematiquement verifiees et notees ici.
Questions frequentes
Les questions les plus posees a la redaction sur ce sujet, avec des reponses courtes verifiables.
-
Quelle est la couverture fan-out moyenne mesuree ?
38 pour cent en moyenne sur les 10 sites francais analyses en avril 2026. La dispersion est forte: les sites les mieux couverts atteignent 67 pour cent, les moins bien 12 pour cent. Une couverture en dessous de 30 pour cent signifie que les deux tiers des sous-requetes vont a la concurrence.
-
Comment est calculee la couverture fan-out ?
On simule le fan-out sur une requete mere via Qforia, on releve la presence de la marque sur chaque sous-requete generee, puis on divise le nombre de sous-requetes traitees par le total et on multiplie par 100.
-
Quel outil utiliser pour simuler le fan-out ?
Qforia, propose par iPullRank et Mike King, est la reference accessible. Pour une equipe technique, un script qui demande a un LLM de deriver une requete en sous-questions donne un resultat equivalent.
-
Pourquoi viser plus de 38 pour cent ?
Parce qu'une page qui couvre 60 ou 70 pour cent des sous-requetes augmente fortement ses chances d'etre citee dans la reponse synthetique de Google AI Mode. La moyenne actuelle indique que la majorite des sites laissent du terrain a la concurrence.
-
Quelle taille de panel faut-il pour mesurer ?
10 sites a 30 sous-requetes par requete mere donne un signal exploitable. En dessous, la variance reste elevee. L'etude actuelle utilise ce volume et reconnait ses limites methodologiques.
-
Cette etude est-elle reproductible ?
Oui. La methodologie est documentee et le simulateur Qforia est public. Toute equipe peut rejouer l'etude sur ses propres requetes meres et comparer les resultats. Les chiffres absolus peuvent varier mais l'orientation generale (couverture moyenne basse, dispersion forte) devrait se reproduire.
Sources
Les references ci-dessous ont nourri la redaction de cet article. Merci aux auteurs cites de partager publiquement leurs travaux.
- Qforia simulator . Mike King, iPullRank
- Google AI Mode patent US20240289407A1 . Google LLC
L'auteur

Camille Lefebvre
Éditrice senior, Recherche & Outils
Camille Lefebvre couvre les outils GEO, les architectures RAG et les structurés techniques d'optimisation. Ingenieure de formation, elle a passé cinq ans côté produit chez un éditeur SaaS de marketing analytics avant de basculer côté rédaction pour traduire les notions techniques aux équipes marketing.
LinkedInPour continuer
Choix de la redaction parmi les articles qui prolongent celui-ci.
- Methodologie
Fan-Out Coverage Index: mesurer la couverture des sous-requêtes générées par AI Mode
Le framework FOCI qui formalise cette mesure de couverture
Lire - Tactiques
Anatomie du query fan-out de Google AI Mode
Le mecanisme du query fan-out de Google AI Mode explique
Lire - Tactiques
Étude maison: quelle densite de citation maximise la présence dans Perplexity
Autre etude maison, sur la densite de citation Perplexity
Lire - Tactiques
Reecrire un article pour qu'il soit cité: protocole en sept passes
Le protocole pour ameliorer la couverture fan-out d'un article existant
Lire
La Lettre Academie GEO
Une sélection commentee des avancees GEO en français. Pas de roundup automatique : chaque envoi est lu, hiérarchisé et critique par la rédaction.
- Une édition par semaine, jamais plus.
- Pas de tracking dans les liens.
- Desinscription en un clic.