La fin du déterminisme dans les résultats de recherche
Pendant deux décennies, le SEO a reposé sur une certitude réconfortante : la stabilité relative des résultats. Si vous étiez premier sur une requête le mardi matin, vous l’étiez probablement encore le mardi après-midi pour la majorité des utilisateurs. L’arrivée de ChatGPT, Claude et des aperçus IA de Google (AI Overviews) a dynamité ce confort. Ces outils ne sont pas des bases de données statiques, mais des moteurs de prédiction de jetons.
Chaque réponse générée est une reconstruction unique. Lorsqu’un utilisateur demande une recommandation de produit, l’IA ne va pas « chercher » une liste préétablie ; elle la fabrique en temps réel en fonction de poids statistiques complexes. Conséquence immédiate pour les marques : la volatilité n’est pas un bug, c’est une fonctionnalité native. Investir des budgets colossaux pour tracker un classement qui change à chaque rafraîchissement de page revient à vouloir mesurer la forme des nuages avec une règle rigide.
Cette instabilité structurelle oblige à repenser totalement les KPIs de visibilité. Il ne s’agit plus de capturer une position, mais d’évaluer une présence statistique sur un volume de données significatif.
L’étude SparkToro : la preuve par 2 961 requêtes
L’industrie du marketing digital manquait cruellement de données empiriques pour valider ou invalider l’efficacité des outils de tracking IA. Ce vide a été comblé par une recherche majeure publiée le 27 janvier 2026 par Rand Fishkin. Dans son article intitulé NEW Research: AIs are highly inconsistent when recommending brands or products, il démonte méthodiquement le mythe du classement IA stable.
La méthodologie employée est robuste et, surtout, humaine. Plutôt que de se fier uniquement à des simulations API, l’équipe a mobilisé 600 volontaires pour exécuter 12 prompts différents sur les trois leaders du marché (ChatGPT, Claude et Google AI). Au total, 2 961 réponses ont été collectées et normalisées.
Les résultats sont sans appel et devraient refroidir plus d’un directeur marketing :
- Si vous posez la même question 100 fois à une IA pour obtenir une recommandation de marque, il y a moins de 1 % de chances d’obtenir la même liste dans le même ordre deux fois de suite.
- Le chaos est la norme. Même sur des secteurs de niche (concessionnaires Volvo à Los Angeles, fournisseurs de Cloud), l’ordre et la composition des listes varient constamment.
La « Part de Voix » comme seule métrique viable
Si le classement est une loterie, faut-il abandonner toute mesure ? L’étude apporte une nuance cruciale. Si l’ordre des réponses est aléatoire, la présence des marques, elle, tend vers une certaine cohérence sur le long terme. C’est ici que réside la véritable valeur pour les stratèges SEO.
L’analyse des données montre que certaines marques apparaissent dans 85 % à 97 % des réponses générées pour une intention donnée, peu importe leur position dans la liste. Par exemple, l’hôpital « City of Hope » est apparu dans 69 des 71 réponses de ChatGPT concernant les soins du cancer sur la côte Ouest, bien qu’il n’ait été cité en premier que 25 fois.
La seule métrique fiable devient donc le pourcentage de visibilité (ou taux d’occurrence). Pour l’obtenir, il est inutile de lancer une requête unique. Il faut interroger le modèle des dizaines, voire des centaines de fois, pour lisser la variance probabiliste et dégager une tendance fiable. C’est le passage d’une logique de ranking (classement vertical) à une logique de share of voice (occupation de l’espace mental du modèle).
L’intention survit à la sémantique du prompt
L’autre enseignement critique concerne la formulation des requêtes. Les utilisateurs humains ne parlent pas aux IA avec des mots-clés calibrés ; ils racontent leur vie, donnent du contexte, utilisent des phrases complexes. L’étude SparkToro a comparé des prompts synthétiques (générés par des machines) à des prompts réels rédigés par les volontaires.
La similarité sémantique entre les prompts humains était extrêmement faible (0,081), comparable à la différence entre du « poulet Kung Pao » et du « beurre de cacahuète » : des ingrédients communs, mais des plats totalement différents. Pourtant, malgré cette diversité d’expression, les IA ont réussi à identifier l’intention sous-jacente. Que la demande soit formulée de manière technique ou conversationnelle, les marques dominantes (comme Sony ou Bose pour les casques audio) ont maintenu leurs taux de présence.
Cela signifie que l’optimisation pour les moteurs IA (GEO) ne doit pas se focaliser sur des mots-clés exacts, mais sur l’association forte entre une marque et une catégorie de problèmes dans le corpus d’entraînement.
Vers un audit de visibilité statistique
Pour les entreprises souhaitant surveiller leur performance dans ces nouveaux écosystèmes, l’approche doit être radicalement scientifique. Fuyez les outils qui vous promettent un « rang moyen » sur ChatGPT. Exigez des rapports basés sur la fréquence d’apparition calculée sur un échantillon large (minimum 60 à 100 itérations par prompt).
L’objectif n’est plus d’être le premier résultat affiché une fois par hasard, mais d’être la marque incontournable que le modèle statistique ne peut s’empêcher de citer, quelle que soit la variation de la demande utilisateur. C’est une bataille de probabilités, pas de positions.
Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !
Ajouter un commentaire