BoFu Prompt Generator

15 min intermédiaire GEO (Generative Engine Optimization) Mis à jour : 2026-05-08
ChatGPT Claude Perplexity Gemini

Personnaliser et copier

# Rôle Tu es un générateur de questions BoFu conçu pour mesurer la citabilité naturelle d'une entité (marque, entreprise, personne, professionnel ou organisation) dans les réponses des LLM. # Entrées - Brand : {{BRAND}} - Product category : {{PRODUCT_CATEGORY}} - N : {{N|default:30}} # Objectif Générer N questions commerciales de bas de funnel, en français, qu'un prospect sérieux poserait à ChatGPT, Perplexity, Gemini, Brave Ask ou Google quand il cherche à choisir, comparer, contacter, recommander ou acheter une solution dans la catégorie fournie. Ces questions servent à tester si Brand apparaît spontanément dans les réponses, sans jamais être citée dans les questions. # Règle critique d'anonymat Ne jamais mentionner Brand. Bannir aussi : - toute variante évidente du nom (initiales, slug de domaine, version anglaise, surnom). - toute expression qui rendrait Brand devinable pour un humain familier du secteur (ex. "le consultant SEO normand basé à Caen" si Brand a ce profil unique). La marque sert uniquement à comprendre le secteur, le positionnement, le type de clients, le contexte concurrentiel. # Définition d'une bonne question BoFu - Proche de la décision (choisir, comparer, sélectionner, contacter, recommander). - Pousse le LLM à nommer des acteurs concrets (marques, prestataires, experts, agences, outils). - Suffisamment spécifique pour faire émerger des noms, mais assez neutre pour ne pas biaiser la réponse. - Permet à Brand d'être une réponse plausible et naturelle. # Diversité obligatoire Les N questions doivent couvrir au moins 5 angles distincts parmi : recommandation directe · comparaison d'acteurs · alternative à un acteur connu · niche / spécialité · contexte d'achat précis · type de client (taille, secteur, maturité) · prix / devis comparé · géographie (si pertinent) · garanties / délais · réputation / avis / fiabilité. Aucun angle ne doit représenter plus de 30 % des questions. # Méthode interne (silencieuse) 1. Déduis le type d'acteur que représente Brand sans la nommer. 2. Identifie les critères de décision naturels du secteur. 3. Si Brand est une personne, généralise vers son métier ou sa spécialité. 4. Adapte le vocabulaire (B2B, B2C, local, juridique, médical, logiciel, industriel, créatif…). 5. Pour chaque question candidate, vérifie : (a) Brand n'apparaît ni en clair ni en variante devinable, (b) la question est BoFu, (c) elle pousse le LLM à nommer des acteurs, (d) elle couvre un angle non saturé. Sinon reformule. # Formulations à privilégier "Quels sont les meilleurs…", "Quel prestataire choisir pour…", "Quel expert contacter pour…", "À qui confier…", "Qui recommander pour…", "Quels acteurs comparer avant de choisir…", "Quelle agence ou quel consultant pour…", "Quels professionnels obtiennent les meilleurs résultats pour…". # Formulations à éviter "Comment…", "Pourquoi…", "Qu'est-ce que…", "Quels critères…" (sauf si la question demande aussi quel acteur choisir), "Combien coûte…" (sauf si elle implique une comparaison d'acteurs), "Quelles étapes…", "Quelles bonnes pratiques…". # Exemple (few-shot) Brand : un cabinet d'avocats parisien spécialisé en droit du travail côté employeur. Product category : conseil juridique en droit du travail pour PME. Bonnes questions : 1. Quels cabinets d'avocats à Paris recommander pour défendre une PME face à des prud'hommes en série ? 2. Quel avocat spécialisé en droit du travail côté employeur choisir pour rédiger un règlement intérieur solide ? 3. Quels cabinets parisiens comparer pour un audit social avant rachat de société ? Mauvaises questions (à éviter) : - "Comment choisir un avocat en droit du travail ?" → réponse explicative, pas de noms. - "Quels critères pour sélectionner un cabinet ?" → critères, pas d'acteurs. - "Quel est le meilleur cabinet de droit du travail employeur basé rue de Rivoli ?" → trop spécifique, devine la marque. # Format de sortie obligatoire ## Liste de N questions BoFu 1. Question 2. Question … N. Question

À quoi sert ce prompt ?

Quand un acheteur potentiel demande à ChatGPT, Perplexity ou Gemini de lui recommander une marque dans votre catégorie, êtes-vous cité spontanément ? Ce prompt vous permet de le savoir, en générant en quelques secondes les 30 questions BoFu (Bottom of Funnel, c'est-à-dire proches de la décision d'achat) à poser aux LLM pour mesurer votre citabilité naturelle.

C'est le générateur de questions qui sert de point d'entrée à la méthode CitaScan : un protocole reproductible qui produit une matrice T0 sur cinq moteurs IA et qui permet ensuite de mesurer chaque semaine le delta de citations après vos optimisations GEO.

Le prompt se distingue des générateurs de questions classiques par trois garde-fous stricts :

  • Anonymat absolu : la marque testée n'apparaît jamais dans les questions, ni en clair, ni en variante évidente, ni par hyper-spécification qui la rendrait devinable.
  • Diversité d'angles forcée : les N questions couvrent au moins 5 angles distincts (recommandation, comparaison, alternative, niche, contexte d'achat, type de client, prix, géographie, garanties, réputation), avec un plafond de 30 % par angle pour éviter la sur-représentation.
  • Exemple de calibrage : le prompt inclut un cas concret (cabinet d'avocats parisien spécialisé en droit du travail) avec trois bonnes et trois mauvaises questions, ce qui ancre le LLM sur le bon registre dès le premier essai.

Variables à personnaliser

Variable Description Exemple
{{BRAND}} Nom de la marque, entreprise, personne ou organisation à tester Julien Gourdon, Decathlon, cabinet Dupont & Associés
{{PRODUCT_CATEGORY}} Catégorie de produit, service, métier ou prestation Conseil SEO indépendant, vélos urbains, conseil juridique en droit du travail
{{N\|default:30}} Nombre de questions à générer. Par défaut 30, qui est le seuil empirique de la méthode CitaScan 30 (recommandé), ou 10 pour un test rapide

csv "Question 1" "Question 2" "Question 3" … "Question N"


Ne réponds pas aux questions. Ne produis aucun commentaire avant ou après les deux blocs.

Cas d'usage concrets

1. Lancer la baseline d'un audit CitaScan en moins de cinq minutes

Vous voulez savoir où vous en êtes dans ChatGPT, Perplexity et Gemini avant de commencer un travail GEO ? Lancez ce prompt avec votre marque et votre catégorie en entrée, gardez les 30 questions générées, posez-les aux cinq LLM cibles, et vous obtenez votre matrice T0. C'est la version brouillon-rapide du protocole détaillé en 9 étapes dans l'article fondateur de la méthode CitaScan (lien en fin de page).

2. Construire un suivi hebdomadaire reproductible

Une fois votre baseline établie, conservez exactement les 30 questions générées par le prompt comme jeu de référence. Reposez les mêmes questions chaque semaine pendant six semaines, puis espacez. Le delta entre T0 et T+x mesure l'effet réel de vos optimisations éditoriales et structurelles.

3. Comparer votre citabilité à celle de vos concurrents

Lancez le prompt deux fois : une fois avec votre marque et votre catégorie, une fois avec un concurrent direct et la même catégorie. Vous obtenez deux jeux de 30 questions différentes mais cohérentes, qui permettent de comparer la citabilité côte à côte. Pour ne tester qu'un seul jeu de questions, gardez le vôtre et regardez si vos concurrents apparaissent dans les réponses : c'est encore plus parlant.

4. Préparer un audit client livrable

Si vous êtes consultant, ce prompt vous donne en quelques minutes les 30 questions sur lesquelles vous baserez votre rapport. Ajoutez la matrice T0, les enseignements par moteur et le plan d'action priorisé : vous avez un livrable client professionnel, reproductible et chiffré, sans avoir à tout réécrire à chaque fois.

FAQ

Pourquoi 30 questions et pas 10 ou 100 ?

Trente est le seuil empirique de la méthode CitaScan. Avec dix questions, vous risquez de manquer les angles morts (alternative à, géographie, type de client). Avec cent, le coût en tokens et en analyse devient déraisonnable. Trente offre le meilleur ratio couverture / effort pour une marque B2B ou B2C standard. Vous pouvez baisser à 10 pour un test rapide en utilisant la variable N.

Ce prompt fonctionne-t-il pour une marque B2C ou pour une personne ?

Oui, sans modification de structure. Le prompt s'adapte automatiquement au secteur que vous indiquez dans {{PRODUCT_CATEGORY}}. Pour une personne (consultant, expert, formateur), le prompt généralise au métier ou à la spécialité, ce qui permet de mesurer si vous êtes cité comme acteur de référence dans votre catégorie sans que les questions ne deviennent explicitement personnelles.

Faut-il toujours utiliser ce prompt en français ?

Le prompt génère des questions en français par défaut, parce qu'il a été calibré sur ce vocabulaire et que la majorité des audits francophones se font dans cette langue. Pour générer des questions en anglais ou dans une autre langue, ajoutez en préambule la consigne explicite : « Génère les questions en anglais. » La logique des règles reste identique et les questions générées sont comparables cross-LLM même dans une autre langue.

Comment exploiter les 30 questions une fois générées ?

Posez chaque question dans chaque LLM cible (ChatGPT, Perplexity, Gemini, Claude, Grok). Capturez les réponses, repérez si votre marque est citée, à quelle position dans la liste de recommandations, et si votre domaine apparaît dans les sources. Compilez le tout dans une matrice questions x LLM, qui devient votre baseline T0. Pour automatiser le tout en ligne de commande, un repo open-source CLI est disponible (lien en fin de page).

Pourquoi interdire absolument toute mention de la marque dans les questions ?

Parce que le but est de mesurer la citation spontanée. Si la marque apparaît dans la question, le LLM va la reprendre dans la réponse de manière triviale, sans que cela vous dise quoi que ce soit sur votre vraie visibilité. La règle d'anonymat est ce qui transforme un audit de marque en mesure objective. Pour mesurer le sentiment ou le positionnement comparatif quand votre marque est explicitement citée dans le prompt, l'article méthodologique sur la mesure 3 x 3 du parcours d'achat distingue ce cas particulier (lien en fin de page).

Le prompt est-il identique à celui qui figure dans l'article CitaScan ?

L'article CitaScan en propose une variante simplifiée à trois entrées (marque, catégorie, zone géographique) calibrée pour un usage immédiat copier-coller. Cette page contient la version paramétrique et générique, avec la variable N pour ajuster le nombre de questions, et un bloc d'exemple few-shot pour ancrer le LLM sur le bon registre. Les deux sont compatibles : utilisez la version la plus pratique pour votre cas d'usage.

Pour aller plus loin

Ce prompt n'est qu'un maillon du protocole complet. Pour exploiter pleinement les questions générées, trois ressources complémentaires :

Tags

GEO Generative Engine Optimization citabilité BoFu bottom of funnel audit de marque CitaScan ChatGPT Perplexity Gemini