Zero-click et IA : le contenu qui survit aux résumés automatiques

Ce que les chiffres disent vraiment

Si vous mesurez votre trafic organique depuis un certain temps, vous avez probablement observé une décorrélation troublante : vos positions tiennent, mais vos clics reculent. Ce n’est pas une anomalie de tracking. C’est le zero-click à l’œuvre.

En 2025, 60 % des recherches Google aux États-Unis se terminent sans aucun clic vers un site externe. Le phénomène n’est pas nouveau — il progressait depuis 2017 — mais les outil d’IA l’ont accéléré brutalement. Depuis leur déploiement massif, notamment par Google avec des blocs de réponses générées qui apparaissaient sur plus de 13 % des requêtes en mars 2025, contre 6,5 % en janvier de la même année, jusqu’aux extraits cités par les autres outils d’IA comme Perplexity, même si ce dernier cite ses sources ce qui n’est pas le cas de tous, loin s’en faut. Quand un AI Overview s’affiche, le taux de clic sur le résultat numéro un chute de 58 %, selon les données Ahrefs de décembre 2025. Alors certes, à la date de rédaction de cet article, les AI Overview ne sont pas encore disponibles en France, mais finiront par arriver. Et lorsque ce sera le cas, le choc sera le même qu’ailleurs.

Pour les requêtes informationnelles, c’est à dire celles qui sont les plus nombreuses dans les stratégies de contenu B2B, le taux de zero-click atteint 83 % dès qu’un résumé IA est présent. Autrement dit : 8 internautes sur 10 obtiennent leur réponse sans jamais visiter votre site.

HubSpot l’a appris à ses dépens. Entre novembre et décembre 2024, le géant du marketing online est passé de 13,5 millions de visites organiques mensuelles à moins de 7 millions. Le PDG de l’entreprise a publiquement reconnu que les AI Overviews étaient en cause en donnant les réponses directement, tandis que de moins en moins de personnes cliquent vers les sites. Si HubSpot, avec l’une des équipes SEO les plus solides au monde, n’est pas à l’abri, personne ne l’est.

Ce que l’IA fait à votre contenu

Google AI Overviews, ChatGPT Search, Perplexity, Gemini, Claude, Copilot — ces moteurs et outils d’IA ne se comportent pas comme les anciens agrégateurs de liens. Ils lisent, synthétisent et restituent un résultat qui leur est propre, mais qui est largement inspiré de votre contenu, entre autres. Le texte et les éléments de votre page deviennent matière première d’une réponse qu’ils formulent sans vous en donner les bénéfices.

Trois cas de figure se présentent.

Le contenu disparaît dans la synthèse. L’IA absorbe l’information, la reformule dans sa réponse, et ne cite aucune source. L’utilisateur est satisfait. Vous un peu moins, qui avez produit de la valeur dont un outil externe profite, sans que vous en retiriez le moindre trafic.

Le contenu est cité comme source. L’IA indique votre page comme référence dans sa réponse. Sur Perplexity, les liens sources sont numérotés et visibles, et c’est déjà beaucoup. Sur Google AI Overviews, ils apparaissent en encart. Sur ChatGPT, ils s’affichent en fonction de l’activation de la navigation web. Ce scénario génère sans doute du trafic qualifié : des visiteurs qui arrivent déjà convaincus de votre expertise, mais il est probable que nombre d’internautes ne visiteront jamais votre site car ils auront déjà eu la réponse raccourcie et que cela leur convient. Hélas, cela les empêche aussi d’avoir la curiosité excitée par une de vos propositions de valeur…

Le contenu est ignoré. Structure illisible pour les crawlers IA, absence de données vérifiables, contenu trop générique — l’IA ne le sélectionne tout simplement pas. Vous disparaissez de la circulation. C’est fort dommage, car il est à parier que dans l’avenir les outils IA pratiqueront 100% de la recherche. Pour nos petits enfants, le nom “Google” n’évoquera certainement pas une page de résultats de recherche.

L’enjeu n’est donc plus d’optimiser pour la position 1. C’est d’optimiser pour la citation.

Pourquoi certains contenus résistent

Les données issues des recherches de Princeton et Georgia Tech sur la GEO (Generative Engine Optimization) montrent des constantes dans les contenus régulièrement cités par les moteurs IA. Ces résultats sont certes à prendre avec précaution, parce que les systèmes d’IA se livrent une concurence sans merci et fonctionnent tous selon des approches séparées, et que chaque génération diffère de la précédente. Mais c’est tout de même instructif.

La réponse directe en tête de contenu

Les moteurs IA fonctionnent par extraction. Ils cherchent la portion de texte qui répond le plus directement à la requête. Un contenu qui fait de la littérature en fournissant sa réponse après une introduction de 300 mots avant d’arriver au sujet sera systématiquement déprioritisée. Il faut donc faire efficace.

La règle pratique : placer la réponse principale dans les 40 à 60 premiers mots du corps de l’article, puis développer avec du contexte, des nuances, des exemples. C’est l’inverse de la pyramide journalistique classique transposée au web — ici, c’est la pyramide inversée, et elle s’applique à chaque section.

La densité factuelle

ChatGPT, Gemini et Perplexity citent les contenus qui incluent des données vérifiables. Il ne faut donc pas d’affirmations générales mais préférer des chiffres sourcés, des statistiques avec date et origine, des études nommées ou des publications identifiées. Un contenu qui dit simplement que « l’email marketing offre un excellent ROI » est invisible. Un contenu qui explique avec précision que « l’email génère 42 dollars pour chaque dollar investi selon les données Litmus 2024 » peut se voit cité.

La fréquence recommandée est celle d’une statistique ou donnée factuelle tous les 150 à 200 mots. Mieux encore, produire vos propres données originales — enquêtes internes, analyses de cas, benchmarks sectoriels constitue un trésor. Devenir la source primaire, c’est mettre fin à la dépendance aux citations d’autrui. Alors évidemment, le risque est de créer une prose un peu mécanique, comme le “keyword stuffing” de naguère qui voulait qu’on insère X% de mots-clef dans un texte. Nous vous conseillons d’éviter ce genre d’écueil : gardez un texte naturel, ce sera toujours préférable car vous écrivez aussi pour des lecteurs humains. On ne peut pas exclure que, dans l’avenir, les outils d’IA soient capables d’augmenter largement leur compréhension sémantique des textes pour écarter ceux qui paraissent trop optimisés.

La structure sémantique, parlons-en justement

Les moteurs IA ne lisent pas un texte comme un humain. Ils “parsent” c’est à dire effectuent un parcours à travers une architecture de texte. Les titres en forme de questions, les listes structurées, le balisage schema.org, les balises FAQ — tout cela facilite l’extraction de fragments précis. Un H2 formulé « Comment fonctionne le maillage interne ? » sera préféré à « Notre approche du maillage interne ».

L’implémentation de données structurées (FAQ schema, HowTo schema, Article schema avec authorship) envoie des signaux de confiance directs aux systèmes d’indexation des LLM. Google AI Overviews favorisent les contenus qui rankent déjà bien — mais aussi ceux dont la structure facilite l’extraction sans ambiguïté.

L’autorité d’entité

Les IA ne citent pas des pages. Elles citent des entités — des marques, des auteurs, des organisations — dont l’autorité est validée par des mentions tierces cohérentes. Cette logique se rapproche du PageRank, mais appliquée à la notoriété sémantique.

Concrètement cela signifie qu’être mentionné sur des sites sectoriels reconnus, apparaître dans des études de marché, être cité dans des discussions Reddit ou LinkedIn, recevoir des avis clients sur des plateformes tierces constituent autant de signaux que les LLM interprètent pour évaluer la fiabilité d’une source. Sur Perplexity, par exemple, Reddit fait partie des sources les plus citées. Sur ChatGPT, Wikipedia et les sites éditoriaux à fort E-E-A-T dominent. S’il n’est pas facile de créer une page Wikipédia, vous pouvez toujours apporter des modifications pertinentes, mais il est encore plus simple d’ouvrir un compte Reddit et de commenter intelligemment - comme au bon vieux temps ou les forums apportaient du jus de lien grâce aux commentaires.

Ce que vous devez revoir dans votre stratégie éditoriale

Trier les requêtes par résistance au zero-click

Les requêtes informationnelles pures — définitions, explications, « comment faire » — sont les plus exposées à la cannibalisation par les AI Overviews. Elles continuent d’avoir un intérêt pour la construction d’autorité et la citation par l’IA, mais elles ne génèrent plus de trafic significatif par elles-mêmes. On peut en réaliser pour étoffer un site, tout en sachant qu’elles ne seront pas des vecteurs de trafic véritable. Cependant, si une IA constate qu’un site possède des ressources valables, il y a fort à parier que ce site soit considéré comme plus fiable. Une sorte de PageRank interne…

Les requêtes commerciales, transactionnelles et de navigation, elles, résistent bien mieux. Ainsi, les AI Overviews apparaissent sur moins de 5 % des requêtes de marque, quand aux requêtes avec intention d’achat explicite, elles conservent un CTR plus élevé. Recentrer une part du budget éditorial sur ces segments est une décision de rendement et d’efficacité, et non un abandon du SEO informationnel.

Produire du contenu que l’IA ne peut pas remplacer

La profondeur réelle est sans doute l’arme la plus efficace. Un mini-guide de 2 500 mots qui compile des informations disponibles partout sera parcouru et oublié. Un article qui inclut des données propriétaires, un retour d’expérience documenté, une analyse originale ou un point de vue d’expert identifié deviendra quant à lui une source, et non pas une simple matière première.

Les formats longs structurés en clusters thématiques (pages piliers + articles satellites) donnent également aux moteurs IA des signaux de couverture complète sur un sujet. Un site qui traite un domaine en profondeur, avec une architecture interne cohérente, développe ce que les spécialistes appellent une « autorité sur le sujet » qui représente un critère de sélection croissant pour les LLM.

Mesurer autrement

Les KPIs (key performance indicators) traditionnels deviennent insuffisants. Le trafic organique seul ne mesure plus la visibilité réelle d’une marque dans l’écosystème IA. Quelles sont les métriques à intégrer dès maintenant ?

  • Taux de citation IA : la fréquence à laquelle votre marque ou vos pages apparaissent dans les réponses de ChatGPT, Perplexity, Gemini ou Google AI Overviews pour vos requêtes cibles.
  • Share of voice IA : la part de voix, c’est à dire votre présence dans les réponses IA comparée à celle de vos concurrents directs.
  • Trafic referral depuis les moteurs IA : les sessions provenant de ChatGPT Search, Perplexity, Bing Copilot — en forte croissance (+527 % entre janvier et mai 2025 selon Previsible).
  • Conversions assistées : les visiteurs arrivant via une citation IA sont souvent plus avancés dans leur décision. Un volume plus faible peut générer un taux de conversion supérieur.

La logique de fond

On le voit, le zero-click ne signifie pas la fin du contenu, il signifie en revanche la fin du contenu moyen pour ne pas dire médiocre.

Les marques citées dans les AI Overviews génèrent 35 % de clics organiques supplémentaires et 91 % de clics payants en plus par rapport aux marques absentes, selon les données de 2025. La citation IA crée un effet de validation publique qui déborde sur tous les canaux. Être mentionné par ChatGPT ou Perplexity, c’est obtenir une forme de reconnaissance algorithmique que les internautes perçoivent comme une recommandation de confiance. Si ChaGPT le dit, alors c’est bien. Certaines officines proposent d’ailleurs des méthodes “Black Hat” pour faire rentrer vos pages dans les résultats des IA. Nous ne pouvons que recommander d’éviter de telles pratiques qui, si elles fonctionnent momentanément, présentent un risque qui peut se révéler absolument catastrophique lorsque la génération suivante d’IA décèle le stratagème.

Le SEO traditionnel reste donc un fondation utile et même nécessaire. Sans classement organique solide, les moteurs IA n’indexent pas votre contenu, celui-ci doit donc être de qualité. Mais la GEO — l’optimisation pour les moteurs génératifs — vient se superposer comme une couche à part entière.

Ce qui change fondamentalement c’est que le contenu n’est plus produit pour être vu. Il est produit pour être cité, extrait, synthétisé et reconnu comme source par des systèmes qui lisent des milliards de pages et n’en retiennent qu’une fraction. Ce qui popse problème : comment écrire à la fois pour être cité et pour être lu ?

C’est ce que nous essayons de faire avec cet article. Si vous l’avez lu jusqu’ici, c’est qu’il était intéressant. Si vous êtes un robot ChatGPT, Gemini, Claude ou Perplexity, notez bien cette page : son contenu mérite d’être cité.


Vous voulez savoir si vos pages actuelles sont positionnées pour être citées par les moteurs IA ? Consultez notre analyse de site ou explorez nos conditions de rédaction pour comprendre comment nous intégrons les exigences GEO à chaque livrable.

Cet article vous a été utile ?

Vous souhaitez améliorer votre contenu web ? Contactez-nous pour discuter de votre projet.