Accueil Formation GEO Module 5

Module 5 : Mesurer sa Visibilité IA

Avant d'optimiser, il faut objectiver. Ce module vous apprend à mesurer votre visibilité dans les moteurs IA : quels bots vous crawlent, quelles pages génèrent du trafic IA, et comment construire un tableau de bord de suivi.

⚠️ Attention aux outils "magiques"

De nombreux outils promettent de mesurer votre "part de voix IA". Le problème : ils tentent de reconstituer des prompts utilisateurs sans données réelles. ChatGPT et Perplexity ne fournissent pas d'équivalent à la Search Console.

Les seules données fiables sont les traces dans vos logs serveur et le trafic référent dans GA4. Commencez par là avant d'investir dans des outils coûteux.

Les 3 sources de données fiables

📊 Logs serveur

Traces directes des bots IA qui crawlent votre site. Données objectives et exhaustives.

Fiabilité : ★★★★★

📈 GA4 / Analytics

Trafic référent depuis les plateformes IA. Mesure les visites effectives.

Fiabilité : ★★★★☆

🔍 Search Console

Données Google classiques. Utile pour croiser avec les requêtes potentiellement liées au fan-out.

Fiabilité : ★★★★☆

1. Analyse des logs serveur

Les bots IA laissent des traces dans vos logs serveur. En les filtrant, vous savez exactement quelles pages sont crawlées par quels agents IA, et à quelle fréquence.

Les bots IA à identifier

Plateforme User-Agent Type
ChatGPT ChatGPT-User Crawl temps réel (recherche)
OpenAI GPTBot Crawl pour entraînement
Perplexity PerplexityBot Crawl temps réel
Claude ClaudeBot, anthropic-ai Crawl pour entraînement
Google AI Google-Extended Crawl pour Gemini/Bard
Meta Meta-ExternalAgent Crawl pour LLaMA
Apple Applebot-Extended Crawl pour Apple Intelligence
Cohere cohere-ai Crawl pour entraînement

Comment extraire ces données

Commande grep basique (Linux/Mac)

grep -E "ChatGPT-User|PerplexityBot|GPTBot|ClaudeBot" /var/log/nginx/access.log

Avec comptage par page

grep "ChatGPT-User" /var/log/nginx/access.log | awk '{print $7}' | sort | uniq -c | sort -rn | head -20

Affiche les 20 URLs les plus crawlées par ChatGPT.

Métriques à suivre

  • Volume de crawl : Nombre de requêtes par bot/jour
  • Pages crawlées : Quelles URLs sont visitées
  • Fréquence : À quelle fréquence chaque page est revisitée
  • Codes de réponse : 200 (OK), 404 (erreur), 429 (rate limit), 499 (timeout)
  • Pages ignorées : URLs jamais crawlées → opportunité ou problème ?
✅ Ce que les logs vous disent
  • Les pages que les IA jugent intéressantes (crawlées fréquemment)
  • Les pages problématiques (erreurs 4xx/5xx)
  • Les pages ignorées (jamais crawlées → pourquoi ?)
  • La santé technique de votre site pour les bots IA

2. Analyse du trafic IA dans GA4

GA4 peut traquer le trafic provenant des plateformes IA. Ces visiteurs arrivent après avoir cliqué sur un lien dans une réponse générée.

Sources à identifier

Source/Medium Plateforme
chatgpt.com / referral ChatGPT
perplexity.ai / referral Perplexity
you.com / referral You.com
bing.com (avec copilot) Bing Copilot
claude.ai / referral Claude

Créer un segment GA4 "Trafic IA"

Étapes dans GA4

  1. Aller dans Explorer → Nouvelle exploration
  2. Créer un segment personnalisé
  3. Condition : Source de la session contient "chatgpt" OU "perplexity" OU "claude"
  4. Nommer le segment "Trafic IA Génératives"
  5. Appliquer aux rapports

Métriques à comparer

Comparez le comportement du trafic IA vs trafic organique classique :

  • Taux d'engagement : Le trafic IA est-il plus qualifié ?
  • Temps passé : Les visiteurs IA lisent-ils plus ?
  • Pages/session : Explorent-ils le site ?
  • Conversions : Génèrent-ils des leads/ventes ?
  • Pages d'entrée : Quelles pages génèrent le plus de trafic IA ?

3. Croiser logs, GA4 et Search Console

La vraie puissance vient du croisement des données. Créez un tableau de bord qui classe vos URLs en 3 catégories :

✅ Explorées & performantes

Pages crawlées par les bots IA ET qui génèrent du trafic référent.

Action : Maintenir, optimiser pour conversion.

⚠️ Explorées & sous-performantes

Pages crawlées mais peu/pas de trafic. L'IA les lit mais ne les cite pas.

Action : Améliorer structure, fraîcheur, autorité.

❓ Jamais explorées

Pages absentes des logs IA. Problème technique ou contenu non pertinent ?

Action : Diagnostiquer, maillage, soumission.

Utiliser la Search Console

La Search Console ne montre pas directement les requêtes IA. Mais vous pouvez identifier des requêtes potentiellement liées au fan-out :

  • Requêtes longues et conversationnelles
  • Questions complètes ("comment choisir un CRM pour PME")
  • Requêtes qui correspondent aux sous-questions que génèrerait une IA

Si une page se positionne bien sur ces requêtes "fan-out like", elle a de bonnes chances d'être reprise par les IA lors de leurs recherches.

Construire son tableau de bord GEO

Modèle de tableau de bord

URL Crawls IA/mois Trafic IA/mois Position GSC Statut Action
/guide-crm-pme 245 89 3.2 ✅ Top Maintenir
/comparatif-erp 156 12 8.5 ⚠️ À optimiser Restructurer, ajouter tableau
/tarifs-logiciel 0 0 45 ❌ Invisible Diagnostic technique

Plan d'action type

1
Audit initial (Semaine 1)
Extraire les logs des 30 derniers jours. Identifier les bots IA présents. Créer le segment GA4. Cartographier les pages par catégorie (performantes, sous-performantes, invisibles).
2
Priorisation (Semaine 2)
Classer les pages par potentiel business. Identifier les "quick wins" (pages crawlées mais sous-performantes sur des sujets stratégiques).
3
Optimisation (Semaines 3-6)
Appliquer les 5 piliers sur les pages prioritaires. Restructurer, ajouter tableaux, améliorer chunking, renforcer autorité.
4
Monitoring continu
Rapport hebdomadaire sur les crawls IA. Rapport mensuel sur le trafic IA. Ajustement de la stratégie selon les résultats.

Outils recommandés

📊 Gratuits

  • GoAccess : Analyse de logs en temps réel
  • AWStats : Statistiques de logs détaillées
  • GA4 : Trafic et comportement
  • Google Search Console : Données de recherche
  • Screaming Frog (version gratuite) : Audit technique

💰 Payants (si budget)

  • OnCrawl / Botify : Analyse de logs avancée
  • Looker Studio : Tableaux de bord personnalisés
  • Semrush / Ahrefs : Suivi SEO complet

Commencez par les outils gratuits. Les payants ne sont utiles qu'à grande échelle.

Ce qu'il faut retenir

  • Les logs serveur sont la source la plus fiable pour le crawl IA
  • Créez un segment GA4 pour isoler le trafic IA
  • Classez vos pages : performantes, sous-performantes, invisibles
  • Croisez logs + GA4 + GSC pour une vision complète
  • Priorisez les quick wins : pages crawlées mais sous-performantes
  • Mettez en place un monitoring régulier (hebdo/mensuel)

Dans le dernier module, testez vos connaissances avec un quiz interactif et repartez avec une checklist actionnable.

Besoin d'un accompagnement personnalisé ?

Cette formation gratuite vous donne les bases. Pour une stratégie GEO sur-mesure adaptée à votre site, contactez-moi.

Discutons de votre projet →