BoFu Prompt Generator
Personnaliser et copier
À quoi sert ce prompt ?
Quand un acheteur potentiel demande à ChatGPT, Perplexity ou Gemini de lui recommander une marque dans votre catégorie, êtes-vous cité spontanément ? Ce prompt vous permet de le savoir, en générant en quelques secondes les 30 questions BoFu (Bottom of Funnel, c'est-à-dire proches de la décision d'achat) à poser aux LLM pour mesurer votre citabilité naturelle.
C'est le générateur de questions qui sert de point d'entrée à la méthode CitaScan : un protocole reproductible qui produit une matrice T0 sur cinq moteurs IA et qui permet ensuite de mesurer chaque semaine le delta de citations après vos optimisations GEO.
Le prompt se distingue des générateurs de questions classiques par trois garde-fous stricts :
- Anonymat absolu : la marque testée n'apparaît jamais dans les questions, ni en clair, ni en variante évidente, ni par hyper-spécification qui la rendrait devinable.
- Diversité d'angles forcée : les N questions couvrent au moins 5 angles distincts (recommandation, comparaison, alternative, niche, contexte d'achat, type de client, prix, géographie, garanties, réputation), avec un plafond de 30 % par angle pour éviter la sur-représentation.
- Exemple de calibrage : le prompt inclut un cas concret (cabinet d'avocats parisien spécialisé en droit du travail) avec trois bonnes et trois mauvaises questions, ce qui ancre le LLM sur le bon registre dès le premier essai.
Variables à personnaliser
| Variable | Description | Exemple |
|---|---|---|
{{BRAND}} |
Nom de la marque, entreprise, personne ou organisation à tester | Julien Gourdon, Decathlon, cabinet Dupont & Associés |
{{PRODUCT_CATEGORY}} |
Catégorie de produit, service, métier ou prestation | Conseil SEO indépendant, vélos urbains, conseil juridique en droit du travail |
{{N\|default:30}} |
Nombre de questions à générer. Par défaut 30, qui est le seuil empirique de la méthode CitaScan | 30 (recommandé), ou 10 pour un test rapide |
csv "Question 1" "Question 2" "Question 3" … "Question N"
Ne réponds pas aux questions. Ne produis aucun commentaire avant ou après les deux blocs.
Cas d'usage concrets
1. Lancer la baseline d'un audit CitaScan en moins de cinq minutes
Vous voulez savoir où vous en êtes dans ChatGPT, Perplexity et Gemini avant de commencer un travail GEO ? Lancez ce prompt avec votre marque et votre catégorie en entrée, gardez les 30 questions générées, posez-les aux cinq LLM cibles, et vous obtenez votre matrice T0. C'est la version brouillon-rapide du protocole détaillé en 9 étapes dans l'article fondateur de la méthode CitaScan (lien en fin de page).
2. Construire un suivi hebdomadaire reproductible
Une fois votre baseline établie, conservez exactement les 30 questions générées par le prompt comme jeu de référence. Reposez les mêmes questions chaque semaine pendant six semaines, puis espacez. Le delta entre T0 et T+x mesure l'effet réel de vos optimisations éditoriales et structurelles.
3. Comparer votre citabilité à celle de vos concurrents
Lancez le prompt deux fois : une fois avec votre marque et votre catégorie, une fois avec un concurrent direct et la même catégorie. Vous obtenez deux jeux de 30 questions différentes mais cohérentes, qui permettent de comparer la citabilité côte à côte. Pour ne tester qu'un seul jeu de questions, gardez le vôtre et regardez si vos concurrents apparaissent dans les réponses : c'est encore plus parlant.
4. Préparer un audit client livrable
Si vous êtes consultant, ce prompt vous donne en quelques minutes les 30 questions sur lesquelles vous baserez votre rapport. Ajoutez la matrice T0, les enseignements par moteur et le plan d'action priorisé : vous avez un livrable client professionnel, reproductible et chiffré, sans avoir à tout réécrire à chaque fois.
FAQ
Pourquoi 30 questions et pas 10 ou 100 ?
Trente est le seuil empirique de la méthode CitaScan. Avec dix questions, vous risquez de manquer les angles morts (alternative à, géographie, type de client). Avec cent, le coût en tokens et en analyse devient déraisonnable. Trente offre le meilleur ratio couverture / effort pour une marque B2B ou B2C standard. Vous pouvez baisser à 10 pour un test rapide en utilisant la variable N.
Ce prompt fonctionne-t-il pour une marque B2C ou pour une personne ?
Oui, sans modification de structure. Le prompt s'adapte automatiquement au secteur que vous indiquez dans {{PRODUCT_CATEGORY}}. Pour une personne (consultant, expert, formateur), le prompt généralise au métier ou à la spécialité, ce qui permet de mesurer si vous êtes cité comme acteur de référence dans votre catégorie sans que les questions ne deviennent explicitement personnelles.
Faut-il toujours utiliser ce prompt en français ?
Le prompt génère des questions en français par défaut, parce qu'il a été calibré sur ce vocabulaire et que la majorité des audits francophones se font dans cette langue. Pour générer des questions en anglais ou dans une autre langue, ajoutez en préambule la consigne explicite : « Génère les questions en anglais. » La logique des règles reste identique et les questions générées sont comparables cross-LLM même dans une autre langue.
Comment exploiter les 30 questions une fois générées ?
Posez chaque question dans chaque LLM cible (ChatGPT, Perplexity, Gemini, Claude, Grok). Capturez les réponses, repérez si votre marque est citée, à quelle position dans la liste de recommandations, et si votre domaine apparaît dans les sources. Compilez le tout dans une matrice questions x LLM, qui devient votre baseline T0. Pour automatiser le tout en ligne de commande, un repo open-source CLI est disponible (lien en fin de page).
Pourquoi interdire absolument toute mention de la marque dans les questions ?
Parce que le but est de mesurer la citation spontanée. Si la marque apparaît dans la question, le LLM va la reprendre dans la réponse de manière triviale, sans que cela vous dise quoi que ce soit sur votre vraie visibilité. La règle d'anonymat est ce qui transforme un audit de marque en mesure objective. Pour mesurer le sentiment ou le positionnement comparatif quand votre marque est explicitement citée dans le prompt, l'article méthodologique sur la mesure 3 x 3 du parcours d'achat distingue ce cas particulier (lien en fin de page).
Le prompt est-il identique à celui qui figure dans l'article CitaScan ?
L'article CitaScan en propose une variante simplifiée à trois entrées (marque, catégorie, zone géographique) calibrée pour un usage immédiat copier-coller. Cette page contient la version paramétrique et générique, avec la variable N pour ajuster le nombre de questions, et un bloc d'exemple few-shot pour ancrer le LLM sur le bon registre. Les deux sont compatibles : utilisez la version la plus pratique pour votre cas d'usage.
Pour aller plus loin
Ce prompt n'est qu'un maillon du protocole complet. Pour exploiter pleinement les questions générées, trois ressources complémentaires :
- L'article fondateur Les LLM recommandent-ils votre marque ? La méthode CitaScan en 9 étapes détaille le protocole d'audit pas à pas, la matrice de référence, le cas pratique chiffré et la grille tarifaire pour industrialiser la mesure.
- L'article méthodologique Comment identifier les bons prompts pour mesurer votre visibilité dans les moteurs IA étend la mesure aux trois étapes du parcours d'achat (notoriété spontanée, considération comparée, citabilité d'achat) et explique quand utiliser ce prompt et quand utiliser d'autres familles de prompts.
- Le repo open-source github.com/JuJu78/citascan fournit un CLI Node.js qui automatise l'envoi des questions aux cinq LLM cibles via l'API Agent de Perplexity, et produit la matrice T0 en moins d'une minute pour environ 1,20 à 2 euros par audit complet.