Prompter au niveau d'après
La plupart des gens prompt comme on tape dans Google : trois mots-clés, on espère le meilleur. L'IA n'est pas Google. Le framework RTCF, six techniques qui font la différence, et comment itérer pour obtenir pile poil ce que tu veux.
La plupart des gens prompt comme ils tapent dans Google. Trois mots-clés, on espère le meilleur. L'IA répond, mais elle répond moyen. Pas parce qu'elle est moyenne. Parce qu'elle a été briefée moyennement.
Ce qui sépare un prompt naïf d'un prompt qui produit du premier coup, ce n'est pas du jargon technique. C'est une discipline de brief. Voici comment elle marche.
La règle d'or
Anthropic le formule très bien dans ses propres docs : pense à l'IA comme à un nouvel employé brillant, mais qui ne connaît rien de ton entreprise. Très intelligent. Capable. Mais qui a besoin que tu le briefes pour produire pile poil ce que tu veux.
Tu ne demandes pas à un nouvel arrivant "fais-moi une analyse" sans préciser : analyse de quoi, pour qui, à rendre quand, dans quel format. Tu lui donnes du contexte, ton angle, comment tu veux que ce soit livré.
Le test, alors : donne ton prompt à un collègue qui ne connaît pas ta tâche. S'il est perdu, l'IA aussi.
C'est tout ce qu'il y a à comprendre. Le reste de l'article, c'est la mise en pratique.
Le framework RTCF
Quatre blocs à avoir en tête. Pas tous obligatoires à chaque fois, mais quand un manque, le résultat se dégrade.
| Bloc | Quoi | Exemple |
|---|---|---|
| R — Rôle | Qui parle, avec quel point de vue | "Tu es head of growth d'un SaaS B2B 50 personnes." |
| T — Tâche | Ce que tu veux, verbe d'action concret | "Génère 5 leviers de rétention activables sous 30 jours." |
| C — Contexte | Ce que l'IA doit savoir avant de répondre | "ARR 8M€, churn mensuel 4%, équipe de 12 PM." |
| F — Format | Comment livrer (longueur, structure, ton) | "Tableau avec colonnes : levier, effort, métrique de succès." |
Reprenons chaque bloc avec ce qui se joue dedans.
R — Le rôle change tout
Le rôle, c'est le cadre mental que l'IA adopte avant même de lire ta tâche. Ce cadre détermine le vocabulaire utilisé, les biais, le niveau de détail, les choses qui paraissent évidentes ou pas.
Un rôle vague ("agis comme un expert marketing") donne une réponse vague. Un rôle précis ("head of growth d'un SaaS B2B 50 personnes, sceptique sur les vanity metrics, qui parle à un CEO non technique") cadre instantanément le ton, le niveau de profondeur et les références implicites.
Le test : est-ce que ton rôle décrit assez la posture pour que deux personnes différentes, en lisant le rôle seul, écrivent dans le même ton ? Si non, précise davantage.
T — La tâche, c'est un verbe d'action
"Aide-moi avec mon mail" n'est pas une tâche. C'est une intention floue. "Reformule ce mail pour qu'il fasse 80 mots et qu'il termine par une question ouverte" est une tâche.
La règle : un verbe d'action concret + un objet précis. "Génère", "compare", "reformule", "liste", "évalue", "traduis". Pas "aide", pas "travaille sur", pas "explore". Plus le verbe est précis, plus le modèle sait quoi produire.
Si tu veux plusieurs choses, dis-le explicitement et numérote : "1) liste les forces, 2) liste les faiblesses, 3) recommande une option." Ne mélange pas tout dans une phrase.
C — Le contexte, le bloc le plus négligé
C'est ici que se joue 80% de la différence entre un prompt naïf et un prompt qui produit. Le contexte, c'est tout ce que l'IA doit savoir avant de pouvoir répondre utilement :
- La situation de départ (ton entreprise, ton équipe, le projet)
- Les données pertinentes (chiffres, sources, historique)
- Les contraintes (budget, deadline, règles internes)
- Ce qui a déjà été essayé et n'a pas marché
- Le public final qui va lire le résultat
Sans contexte, l'IA répond depuis sa moyenne. Avec du contexte, elle répond depuis ta situation. La différence est colossale.
Et le contexte, ça inclut ce que tu veux ÉVITER. "Notre dernière campagne a tapé dans le registre 'innovation', on ne veut pas y retourner", c'est un contexte qui empêche l'IA de te ramener au même endroit.
F — Le format, sinon tu reformates à la main
Si tu ne précises pas le format, le modèle choisit pour toi. Et son choix par défaut est verbeux : intro, listes à puces, phrases d'accroche, conclusion. Souvent inutile.
À spécifier explicitement quand le résultat sert à quelque chose de concret :
- Longueur : "80 mots max", "5 puces de 15 mots chacune"
- Structure : sections nommées, table, JSON, prose continue
- Ton : "factuel, à la 3e personne", "conversationnel, comme à un collègue"
- Ce qu'il ne doit PAS y avoir : "aucune intro ni conclusion", "pas d'emojis", "pas de markdown"
Quand tu vas réutiliser le résultat (le coller dans Notion, l'envoyer par mail, l'importer dans un Sheet), le format est ce qui te fait gagner ou perdre 10 minutes de réécriture.
Pas tous les blocs à chaque fois
RTCF est une checklist mentale, pas un template rigide. Une question factuelle ("capitale du Pérou ?") n'a pas besoin de rôle ni de contexte. Un brainstorming exploratoire peut se passer de format strict.
Mais quand le résultat est moche, c'est presque toujours qu'un bloc manquait. Relis ton prompt en te demandant : quel bloc ai-je sauté ? C'est généralement le contexte.
Avant / après : le déclic
Trois cas concrets. Le "avant" est ce qu'on tape quand on est pressé. Le "après" applique RTCF, plus une ou deux techniques bonus.
Cas 1 : annoncer l'arrivée d'une collègue
Avant
Après
Léa Martin rejoint l'équipe produit lundi en tant que Senior PM sur le module billing. Elle vient de Pennylane, 6 ans d'expérience fintech.
Mon équipe : 12 PM, certains stressés par le périmètre billing actuellement instable.
Écris l'annonce Slack à toute la boîte sur #general.
Contraintes :
- 80 mots max
- Pas de "Nous sommes ravis"
- Inclure ce qu'elle va faire, pourquoi c'est utile, comment l'accueillir
- Termine par un appel à café avec elle (pas un GIF)
Le premier prompt te donne un mail corporate générique que tu vas réécrire. Le deuxième te donne un message Slack utilisable tel quel.
Cas 2 : analyser un concurrent
Avant
Après
Sortie au format JSON :
{
"positionnement_1_phrase": "...",
"icp_principal": "...",
"3_arguments_marketing_phares": [...],
"force_qu_on_doit_matcher": "...",
"faiblesse_qu_on_peut_exploiter": "...",
"menace_pour_nous_sur_12_mois": "haute|moyenne|basse",
"1_action_recommandée": "..."
}
Si tu ne sais pas, mets "inconnu". Ne jamais inventer un chiffre.
Le premier prompt te donne un essai d'école générique. Le deuxième te donne une fiche structurée que tu colles directement dans ton outil de competitive intel.
Cas 3 : synthétiser une réunion
Avant
Après
Tu es chief of staff. Produis quatre sections distinctes :
1. Décisions prises (qui décide quoi, deadline)
2. Actions à mener (action — owner — deadline)
3. Questions ouvertes (sujets non tranchés)
4. Risques (signaux faibles ou tensions perçues)
Phrases courtes. Si l'info n'est pas dans le transcript, écris "non précisé". Aucun blabla d'introduction ni de conclusion.
Le premier prompt te donne un résumé linéaire que tu dois retravailler. Le deuxième te donne un compte rendu structuré, prêt à coller dans Notion ou à envoyer aux participants.
Tu vois le motif. Le "après" est plus long, mais il te coûte moins de temps total. Tu briefes une fois, tu n'as plus à corriger.
Six techniques qui font la différence
Au-delà de RTCF, six leviers qui boostent vraiment la qualité d'un prompt.
1. Les exemples (few-shot). Montrer plutôt qu'expliquer. "Voici trois exemples du ton qu'on utilise..." puis tu donnes les exemples. Une démo vaut mieux que dix lignes d'instructions, surtout pour le ton de marque, les formats récurrents, les classifications. Trois à cinq exemples suffisent. Diversifie-les (cas simples, cas limites) pour que le modèle généralise.
2. La chaîne de pensée. "Procède en trois étapes : 1) liste forces et faiblesses, 2) compare en tableau, 3) recommande." Tu forces le modèle à raisonner étape par étape avant de conclure. Indispensable pour les analyses, comparatifs et choix multi-critères. Effet mesuré sur de nombreuses tâches : amélioration franche de la cohérence des conclusions.
3. Délimite tes sections. Quand ton prompt mélange instruction, données collées, exemples et question, le modèle a du mal à savoir ce qui est quoi. Encadre chaque bloc : "Voici le transcript : [...] Voici le brief : [...] Voici ta tâche : [...]". Ou utilise des balises (<transcript>...</transcript>), des sections markdown, des triple backticks. Le modèle comprend mieux et se trompe moins.
4. Dis ce qu'il faut faire, pas ce qu'il ne faut pas faire. "Écris en prose continue, ton conversationnel" est mieux que "Pas de bullets, pas de markdown, pas de jargon". Les modèles répondent mieux aux instructions positives. Les négations marchent, mais elles sont oubliées plus vite quand le prompt est long.
5. Donne le pourquoi. "Ce texte sera lu par une synthèse vocale qui ne sait pas prononcer les points de suspension. Évite-les." Un modèle qui comprend l'intention généralise mieux qu'un modèle qui suit une règle aveugle. À utiliser dès que ta contrainte n'est pas évidente.
6. Demande à l'IA d'améliorer ton prompt. Méta, mais redoutable. Avant de lancer un prompt complexe, tu peux le coller à l'IA et lui demander : "Voici mon prompt. Quelles ambiguïtés y vois-tu ? Quelles questions de clarification me poserais-tu ? Reformule la version optimale." Tu repars souvent avec un prompt de meilleure qualité, et tu identifies les points où tu manquais de précision. C'est aussi un excellent moyen d'apprendre à mieux briefer.
Tester et itérer
Personne n'écrit le prompt parfait du premier coup. Trois patterns d'itération qui font la différence entre quelqu'un qui se frustre et quelqu'un qui obtient ce qu'il veut.
Le draft → critique → V2. Tu génères un brouillon. Tu le donnes à l'IA avec une grille : "Critique ce texte sur trois axes : clarté, ton, longueur. Puis réécris-le en gardant ce qui marche." Souvent meilleur résultat qu'écrire un prompt parfait dès le départ.
Le prompt → critique → V2. Quand le résultat ne te convient pas, ne change pas tout. Demande à l'IA pourquoi son résultat n'est pas idéal selon des critères que tu donnes : "Voici ce que tu m'as livré. Voici ce qui manque : [...]. Refais-le en corrigeant ces points." Tu gardes ce qui marchait, tu corriges le reste.
Le prompt système réutilisable. Quand un prompt fonctionne bien pour un type de tâche, sauvegarde-le dans un doc (Notion, Obsidian, fichier texte). Adapte-le pour les variantes. Tu construis ainsi ta propre bibliothèque de prompts qui marchent. C'est la première brique vers les Skills, qu'on verra dans la phase 2 du parcours.
Le bestiaire des prompts qui ne marchent pas
Six prompts iconiques que les utilisateurs tapent tous les jours. Chacun produit un résultat décevant pour des raisons différentes. À reconnaître, pour les éviter.
Le prompt vague
Pas de tâche, pas de contexte, pas de destinataire. Trois blocs RTCF manquants sur quatre. L'IA va te demander des précisions, ou pire, t'envoyer un mail générique qui ne sert à rien.
Le prompt "expert" sans angle
Expert en quoi, sur quel angle ? Le rôle est trop large pour cadrer le ton ou la profondeur. "Head of growth d'un SaaS B2B 50 personnes, sceptique sur les vanity metrics, qui parle à un CEO non technique" change radicalement la sortie.
Le prompt poli mais creux
La politesse n'apporte rien à la qualité. "Texte créatif" ne dit pas quoi écrire. "Innovation" est un sujet, pas un angle. Et il manque le format, la longueur, le public. Tu obtiens un texte que personne ne lira.
Le prompt fourre-tout
Quatre tâches dans une seule phrase. Le modèle priorise mal et finit par les traiter superficiellement. Découpe en plusieurs tours : critique d'abord, correction ensuite, variantes en troisième.
Le prompt sans délimiteur
Où finissent les notes ? Où commence l'instruction ? Le modèle confond. Encadre toujours : "Voici les notes brutes : [...]. Ta tâche : résume en 5 puces décisionnelles."
Le prompt qui demande à l'IA d'inventer
Sans accès au web actuel ni source fournie, l'IA répond depuis sa mémoire d'entraînement, souvent dépassée, ou pire, hallucine un chiffre crédible mais faux. Active la navigation web (ou utilise Perplexity), ou fournis la source toi-même. Et ajoute toujours : "Si tu ne sais pas, dis 'inconnu'. Ne jamais inventer un chiffre."
Le motif commun de ces six prompts : un bloc RTCF manque, ou l'IA est traitée comme un moteur de recherche au lieu d'un collaborateur à briefer. Quand un prompt ne marche pas, reviens à l'analogie de l'employé : que manque-t-il à un nouvel arrivant pour faire le boulot correctement ?
Le test
Reprends UN prompt que tu as tapé cette semaine. Applique RTCF dessus, ajoute une ou deux des techniques de la liste. Lance les deux versions côte à côte.
La différence te servira de baseline pour le reste du parcours.
