16 Mega Prompts brandés
Honnêteté brutale, Anti-slop, Pre-mortem, Steelman, Coach socratique, Sparring partner, Premiers principes, Mode produit, Détection de biais, Investigateur, Densité d'info, Compression maximale, et plus. Combinables.
Triskell Studio · App Windows · gratuite
Ultimate Prompt Builder combine ton prompt avec une bibliothèque de 16 Mega Prompts puissants — Honnêteté brutale, Anti-slop, Pre-mortem, Sparring partner, Coach socratique — et envoie le résultat à Claude, GPT, Gemini, Mistral ou Grok, depuis l'app, en un clic.
« Pour qui veut sortir des LLM mode validation par défaut. »
Les modèles d'IA sont entraînés à plaire. Ils valident, hedgent, lissent. Ce biais rend leurs retours moyennement utiles sur les décisions importantes, le contenu publié, ou le code en production.
Ultimate Prompt Builder injecte avant ta demande un ou plusieurs Mega Prompts qui désactivent ces réflexes : verdict explicite obligatoire, vocabulaire LLM-typique banni, hypothèses cachées attaquées, niveau de certitude tagué.
Source : Bibliothèque de prompts auto-adressés — 16 prompts testés, classés par usage, combinables en presets.
Fonctionnalités
Honnêteté brutale, Anti-slop, Pre-mortem, Steelman, Coach socratique, Sparring partner, Premiers principes, Mode produit, Détection de biais, Investigateur, Densité d'info, Compression maximale, et plus. Combinables.
Anthropic (Claude), OpenAI (GPT), Google (Gemini), Mistral, xAI (Grok). Configure tes clés API en local, choisis ton provider et ton modèle, envoie en un clic.
Build d'app, Décision stratégique, Recherche & veille, Apprentissage profond, Diagnostic complexe, Projet long, Production de sites. Un clic = combo activée.
Modifie les 16 prompts existants, crée tes propres Mega Prompts, supprime ce qui ne te sert pas. Recherche par nom / catégorie / contenu. Tout en local dans mega_prompts.json.
Les 20 derniers prompts générés sont conservés. Sauvegarde manuelle des Prompts Ultimes que tu veux garder. Export en .txt ou .md pour partager.
Tes prompts, ton historique, tes clés API restent sur ta machine. Aucune télémétrie. Les seuls appels réseau sont vers le provider IA que tu choisis explicitement.
L'app vérifie en arrière-plan si une nouvelle version est disponible sur GitHub Releases, télécharge silencieusement, te propose d'installer en un clic.
Ctrl+Enter Générer · Ctrl+S Sauvegarder · Ctrl+E Exporter · Ctrl+L Vider la sélection · F1 À propos · Esc Fermer popups.
Le catalogue
Chacun cible un mode de fonctionnement précis et produit des résultats mesurablement différents de ceux qu'on obtient sans prompt explicite.
Coder de A à Z sans s'arrêter pour valider
Dire ce que je pense, pas ce qui te plaît
Tagger chaque affirmation par niveau de certitude
Reconstruire depuis zéro, ignorer les conventions
Formuler la meilleure version d'une idée avant de la critiquer
Imaginer l'échec à 6 mois pour révéler les failles invisibles
Bannir le vocabulaire et les structures LLM-typiques
Chaque phrase apporte une info nouvelle
Détecter ton niveau réel et s'y aligner
Te faire trouver la réponse par questions
Stress-tester systématiquement tes décisions
Maintenir un état partagé sur les projets longs
Repérer quand tu tombes dans des biais cognitifs
Raisonner comme un PM senior avant d'exécuter
Creuser par questions avant de proposer
Ratio info / mots le plus élevé possible
+ tu peux en créer autant que tu veux via l'éditeur intégré.
C'est pour qui
Qui code avec Claude Code, Cursor ou Aider et veut activer le mode autonomie continue + anti-slop + mode produit avant chaque session de build, pour éviter les pauses "tape go pour continuer".
Qui prépare des décisions stratégiques et veut activer le combo Honnêteté brutale + Steelman + Pre-mortem + Sparring partner pour stress-tester ses choix avant de les engager.
Qui veut bannir le vocabulaire LLM-typique de ses textes (Anti-slop) et atteindre la densité d'information maximale (Compression). Plus de "delve", "leverage", "dive into" dans tes drafts.
Qui veut tagger chaque affirmation par niveau de certitude (Anti-hallucination) avant de citer ou publier. [CERTAIN] · [PROBABLE] · [DÉDUIT] · [SPÉCULATION] · [INCONNU].
FAQ
Oui. Pas de compte, pas d'abonnement, pas d'achat in-app. Le code est open source sur GitHub. Triskell Studio se finance avec ses autres outils (Studio PDF, Bobeez, DéliNote…) et services agence (sites web, Eliks Studio).
Dans un fichier settings.json sur ta machine. Elles ne sont transmises qu'au provider d'IA que tu choisis explicitement (Anthropic, OpenAI, Google, Mistral, xAI), selon leurs propres conditions d'utilisation. Aucune télémétrie, aucun appel à un serveur Triskell.
Pour chaque provider, le catalogue de modèles à jour est livré dans l'app — Claude Sonnet 4.5, Opus 4.5, Haiku 4.5 chez Anthropic ; GPT-4o, GPT-4-turbo chez OpenAI ; Gemini 2.5 Flash/Pro chez Google ; Mistral Large/Small ; Grok 2 chez xAI. Mis à jour à chaque release.
Oui — la Bibliothèque intégrée a un CRUD complet : modifier les 16 prompts existants, en créer autant que tu veux, supprimer, rechercher. Tout est sauvegardé dans mega_prompts.json en local.
Au démarrage, l'app vérifie en arrière-plan si une nouvelle release existe sur GitHub. Si oui, téléchargement silencieux, puis tu vois un bouton "Installer la mise à jour" dans Paramètres. Un clic, l'app redémarre, tu es à jour.
Pour l'instant Windows 10 / 11 uniquement (l'installeur est un Inno Setup .exe). Le code Python est cross-platform — si la demande est là, une version Mac/Linux viendra.
Le code est sur GitHub. Issues et PR bienvenues.
Ultimate Prompt Builder · Windows 10 / 11 · ~30 Mo · gratuit, à vie.
↓ Télécharger pour WindowsVia GitHub Releases · pas de compte requis · code source