
➡️ Vos réponses rapides :
Alors que les créateurs de contenu rivalisent d’ingéniosité pour produire des guides « ultimes » de plusieurs milliers de mots, une étude retentissante de Dan Petrovic (Dejan AI) vient doucher les espoirs des adeptes du format long. En ce début d’année 2026, il est désormais prouvé que l’IA de Google, via ses « AI Overviews » et son moteur Gemini, n’exploite qu’une fraction infime de vos pages. Bienvenue dans l’ère du « Grounding Budget », où la densité d’information prime officiellement sur la longueur.
Depuis l’intégration massive de l’intelligence artificielle générative dans les résultats de recherche, une question hantait les experts du marketing digital : comment Google choisit-il les sources qu’il cite dans ses résumés ? Si l’on pensait que le moteur « lisait » l’intégralité des sites pour en faire la synthèse, les travaux de Dan Petrovic démontrent une réalité bien plus pragmatique et restrictive. Google opère sous une contrainte de ressources stricte, limitant drastiquement le volume de texte qu’il injecte dans son modèle d’IA pour chaque requête.
Le terme « grounding » (ou ancrage) désigne le processus par lequel une IA connecte ses réponses à des sources réelles et vérifiables pour éviter les hallucinations. Pour que Gemini produise une réponse fiable, Google doit lui fournir des extraits de pages web (les « chunks »).
Cependant, traiter des téraoctets de données en temps réel coûte cher. Pour optimiser ses coûts de calcul et la rapidité de ses réponses, Google a instauré ce que les chercheurs appellent un Grounding Budget. Il s’agit d’un plafond de mots et de caractères que l’algorithme s’autorise à extraire pour une requête donnée. Selon Petrovic, ce budget n’est pas extensible. Peu importe que votre article fasse 1 000 ou 10 000 mots, Google n’en prélèvera qu’une petite portion.

L’étude de Petrovic, portant sur 7 060 requêtes et 2 275 pages analysées, révèle des données chiffrées qui redéfinissent les standards de rédaction.

Une page de 800 mots obtient en moyenne un taux de couverture de 60 % par l’IA, alors qu’une page de 4 000 mots voit ce taux s’effondrer à 13 %.
Position dans la SERP | Mots extraits (médiane) | Part du budget d’ancrage |
Rang #1 | 531 mots | 28 % |
Rang #2 | 433 mots | 23 % |
Rang #3 | 378 mots | 20 % |
Rang #4 | 330 mots | 17 % |
Rang #4 | 266 mots mots | 13 % |
Pendant des années, le dogme SEO consistait à dire que « plus c’est long, mieux c’est ». Les algorithmes classiques de Google appréciaient la complétude d’un sujet. Mais l’IA change la donne. Elle ne cherche pas l’exhaustivité, mais l’efficacité.
L’étude montre que les pages dépassant les 2 000 mots subissent des rendements décroissants. Google pratique un « résumé extractif ». En effet, il nettoie ce qu’il considère comme du « bruit » (introductions à rallonge, discours marketing vide, menus de navigation) pour ne garder que les faits bruts. Si l’information essentielle est noyée sous des paragraphes de remplissage, le risque est que l’IA ne sélectionne pas les parties les plus pertinentes de votre argumentaire.
Face à ce constat, Dan Petrovic et d’autres experts prônent une nouvelle approche : la compression sémantique. L’idée est de rendre chaque section de votre contenu autonome et dense en informations.


