23 avril 20265 min read

Comment fonctionne le GEO : pourquoi un LLM ne cite pas la même chose que Google n'indexe

Un LLM ne cherche jamais votre requête telle quelle. Il la décompose, lit sélectivement, extrait par morceaux. Comprendre cette logique change radicalement la façon de structurer un site pour l'IA.

Passez de la théorie à la pratique

74 leçons structurées en 6 parties, de la technique au pilotage dans la durée.

Accéder à la formation

Points clés

  • Un LLM ne répond jamais directement à la requête qu'on lui pose. Il la décompose en plusieurs sous-requêtes (fan-out queries) avant d'aller lire le web.
  • Le LLM ne lit pas votre page en entier. Il la découpe en morceaux (chunks) qu'il évalue séparément. Beaucoup de pages bien référencées sur Google échouent à produire un seul chunk citable.
  • Six grandes familles de facteurs décident d'une citation : autorité thématique, associations marque-sujet-preuves, fraîcheur, structure, sources tierces, signaux de marque.
  • Selon l'étude GEO de Princeton, les pages optimisées gagnent 30 à 40 % de visibilité IA par rapport au contenu non optimisé, même à rang SEO identique.
  • Le SEO reste la fondation. Le GEO ajoute une couche d'optimisation pour l'extraction et la crédibilité perçue par le LLM.

Cet article fait partie de notre couverture sur le Generative Engine Optimization.

Vous avez un site bien référencé sur Google. Vous tapez votre requête métier dans ChatGPT. Votre marque n'apparaît pas. À la place, trois concurrents. Et un article de blog que vous n'aviez jamais vu.

Ce n'est pas un bug. C'est le mécanisme. Un LLM ne cherche pas la même chose qu'un moteur de recherche classique, et surtout il ne cherche jamais votre requête telle quelle. Comprendre la logique, même sans aller dans le détail de chaque étape, suffit à comprendre pourquoi le rang Google n'est plus un prédicteur fiable de la visibilité IA.

Un LLM lit le web par morceaux, pas par pages

Un LLM RAG (Retrieval-Augmented Generation) comme ChatGPT Search, Perplexity, Gemini ou Google AI Overview suit toujours la même logique générale : il reformule la requête de l'utilisateur en plusieurs angles, va lire des pages sur le web, découpe ce qu'il lit, garde les meilleurs passages, et assemble une réponse.

Deux différences structurelles avec Google changent tout.

Un : la requête n'est jamais lancée telle quelle. Le LLM génère plusieurs sous-requêtes pour couvrir les angles implicites de la question initiale. Ce sont les fan-out queries. Si vous optimisez uniquement pour votre requête principale, vous ratez l'essentiel de ce que le LLM cherche vraiment.

Deux : la page n'est pas l'unité d'évaluation. Le LLM découpe votre contenu en morceaux (chunks) basés sur sa structure. Chaque morceau est jugé isolément sur sa capacité à répondre. Une page bien écrite pour un humain peut produire zéro chunk citable si elle n'est pas structurée pour ça.

Les fan-out queries, le concept qui renverse la table

Si vous ne retenez qu'une idée du GEO, c'est celle-là. Quand un utilisateur demande "le meilleur CRM pour un freelance", le LLM ne va pas chercher cette question. Il va chercher plusieurs versions de cette question, sous plusieurs angles, pour couvrir ce que l'utilisateur veut vraiment savoir : la facturation, le suivi de projet, le prix, les alternatives, le niveau de complexité.

Chaque angle est une sous-requête distincte. Chaque sous-requête filtre un sous-ensemble de pages. La réponse finale agrège plusieurs sources, chacune sélectionnée sur une sous-requête différente.

Conséquence directe : un site qui couvre largement un sujet, sous plusieurs angles, bat un site qui a une seule page parfaite sur sa requête principale. C'est un renversement complet par rapport à la logique "une page = un mot-clé" du SEO classique.

Perplexity est le seul LLM grand public qui affiche les fan-out queries en clair dans son interface. ChatGPT les générait aussi en public jusqu'à GPT-5.3, puis OpenAI les a planquées derrière l'API. Des outils de monitoring comme Mentionable interrogent l'API à votre place pour les récupérer sur vos prompts cibles.

Le chunking, pourquoi la structure prime sur le contenu

Le LLM n'évalue pas votre page comme un tout. Il la découpe en chunks via vos titres, vos paragraphes, vos listes. Chaque morceau est ensuite scoré séparément sur sa capacité à répondre à une fan-out query précise.

Un contenu dense, sans hiérarchie claire, avec des pronoms ambigus, produit des chunks inutilisables. Le LLM ne peut pas isoler un passage qui dit "ce service propose aussi..." sans savoir à quoi "ce service" fait référence. Il passe à un concurrent dont le chunk nomme explicitement la marque.

La structure du contenu est donc un levier GEO à impact immédiat, et entièrement sous votre contrôle. C'est une des raisons pour lesquelles deux sites avec un contenu comparable au rang SEO identique peuvent avoir une visibilité IA radicalement différente.

Les 6 familles de facteurs qui décident d'une citation

Une fois qu'un chunk est extrait, le LLM le classe sur six dimensions. Nommées :

  1. L'autorité thématique de votre site dans son ensemble
  2. Les associations marque-sujet-preuves (votre marque est-elle reliée à votre sujet par des faits vérifiables)
  3. La fraîcheur du contenu et de sa dernière mise à jour
  4. La structure du contenu et sa lisibilité par le LLM
  5. Les sources tierces qui vous mentionnent ailleurs sur le web
  6. Les signaux de marque agrégés sur tout le web

Certains facteurs se jouent sur la semaine (structure, fraîcheur). D'autres se construisent sur trois à six mois (autorité thématique, associations). D'autres encore sur le long terme et de manière cumulative (sources tierces, signaux de marque).

La priorisation, la méthode pour agir sur chacun, et l'ordre dans lequel les attaquer quand on part de zéro font partie des sujets les plus travaillés dans une formation GEO complète. C'est le passage de la compréhension théorique à un plan d'action exécutable.

Ce que ça change concrètement pour vous

Trois implications majeures, sans entrer dans le comment.

Un : le rang Google n'est plus un prédicteur fiable de la visibilité IA. Vous pouvez être #1 sur votre requête principale et invisible sur ChatGPT, Perplexity et Gemini. L'inverse est vrai aussi.

Deux : couvrir un sujet largement bat couvrir une requête parfaitement. L'architecture de contenu devient au moins aussi importante que la qualité individuelle des articles.

Trois : la structure de vos pages est probablement votre plus grand levier non exploité. La plupart des sites B2B en 2026 ont du bon contenu mal structuré pour le chunking. Le corriger fait bouger la visibilité IA en quelques semaines.

Comprendre le mécanisme est un début. Le traduire en un plan qui se tient (audit, restructuration, mesure) est un autre sujet. Pour le parcours complet, la formation GEO déroule les 74 leçons dans l'ordre logique de mise en œuvre.

Pour aller plus loin

Questions fréquentes

Comment un LLM comme ChatGPT décide-t-il de citer une source ?
Le LLM décompose la requête utilisateur en plusieurs sous-requêtes (fan-out queries), récupère des résultats SERP pour chacune, découpe les pages en morceaux (chunks) selon leur structure, score ces morceaux sur la pertinence, la crédibilité et la fraîcheur, puis assemble les meilleurs en une réponse synthétique avec citations. Seuls les morceaux qui survivent au scoring apparaissent dans la réponse finale.
Qu'est-ce qu'une fan-out query ?
Une fan-out query est une sous-requête que le LLM génère automatiquement à partir de la question initiale de l'utilisateur. Pour une seule question comme 'meilleur CRM pour freelance', le LLM peut en générer plusieurs angles (facturation, suivi projet, comparatif, sans engagement). Chaque sous-requête est lancée séparément, et les résultats sont agrégés pour produire la réponse finale.
Pourquoi ma page bien référencée sur Google n'est-elle pas citée par ChatGPT ?
Trois raisons courantes. Un : votre page ranke sur votre requête principale mais pas sur les fan-out queries réellement utilisées par le LLM. Deux : votre contenu n'est pas structuré pour l'extraction, donc aucun morceau n'est assez autonome pour être cité. Trois : votre autorité thématique et vos signaux de marque sont faibles, et le LLM préfère des sources qu'il reconnaît comme références dans votre niche.
Le SEO classique sert-il encore à quelque chose pour être visible sur les LLMs ?
Oui, le SEO reste la fondation. Les LLMs RAG s'appuient sur les résultats Google et Bing pour décider quelles pages lire. Être bien positionné en SEO classique augmente la probabilité que le LLM vous crawle. Mais ça ne suffit plus : le GEO ajoute une couche d'optimisation pour l'extraction et la crédibilité perçue par le LLM.
Combien de pages un LLM lit-il avant de répondre ?
Un LLM RAG a un budget de lecture limité par requête. Il récupère un grand nombre de résultats SERP mais n'ouvre en détail qu'une poignée de pages, sélectionnées selon la qualité du title et de la meta description. Un bon title et une meta description pertinente augmentent directement vos chances d'être lu, pas juste d'apparaître dans la liste des sources.
Quels sont les facteurs qui pèsent le plus sur une citation ?
Six familles : autorité thématique, associations marque-sujet-preuves, fraîcheur, structure du contenu, sources tierces, signaux de marque. Certains jouent à court terme et sont entièrement sous votre contrôle (structure, fraîcheur). D'autres se construisent sur le long terme (autorité thématique, sources tierces). La hiérarchie et la méthode d'application font partie des sujets les plus travaillés en formation GEO.
Comment voir quelles fan-out queries un LLM génère pour ma thématique ?
Perplexity affiche les sources et les recherches intermédiaires qu'il effectue dans son interface. Tapez une requête liée à votre activité et observez les sources listées. ChatGPT les a cachées depuis GPT-5.3 et ne les expose plus que via son API. Des outils de monitoring comme Mentionable interrogent directement l'API des LLMs pour récupérer ces sous-requêtes et les croiser avec votre contenu.
Alexandre Rastello
Alexandre Rastello
Founder & CEO, Mentionable

Alexandre est développeur fullstack avec 5+ ans d'expérience en produits SaaS. Il a créé Mentionable après un constat simple : aucun outil ne permettait de savoir si l'IA recommandait votre marque ou celle de vos concurrents. Il aide aujourd'hui les solopreneurs et petites entreprises à suivre leur visibilité sur les principales IA.

Publié le 23 avril 2026

Appliquez le GEO avec une méthode claire

La formation GEO Mentionable couvre les 6 piliers dans l'ordre : fondations techniques, SEO, mécanique des LLMs, stratégie de contenu, outillage, pilotage.