Article de recherche percutant. 🚨 Les LLM sont terribles pour les réfutations. Cet article montre exactement pourquoi. La plupart des outils d'IA traitent les réfutations comme une tâche d'écriture. Générer un texte poli. Avoir l'air confiant. Passer à autre chose. C'est précisément pourquoi ils échouent lors des conférences de haut niveau. Cette recherche renverse complètement le problème de la réfutation. Au lieu de "générer une réponse", elle traite les réfutations comme une tâche de décision + d'organisation des preuves. Le système, appelé RebuttalAgent, est un pipeline multi-agents qui refuse d'écrire quoi que ce soit tant que la logique n'est pas irréprochable. Tout d'abord, il atomise les retours des examinateurs. Chaque paragraphe vague est décomposé en préoccupations précises et exploitables. Aucun point n'est manqué. Aucune critique non liée n'est regroupée. La couverture est imposée avant que quoi que ce soit d'autre ne se produise. Vient ensuite la véritable innovation : le raisonnement basé sur les preuves. Pour chaque préoccupation, le système construit un contexte hybride. La plupart de l'article reste compressé pour économiser des tokens, mais les sections exactes pertinentes pour ce commentaire d'examinateur sont développées en pleine fidélité. Si les preuves internes ne suffisent pas, un agent de recherche à la demande récupère des articles externes et les convertit en résumés prêts à être cités. Rien n'est cité à moins qu'il ne soit traçable. Puis vient l'étape que la plupart des outils LLM sautent complètement : la vérification de la stratégie. Avant de rédiger, RebuttalAgent génère un plan de réponse explicite. Il sépare : Ce qui peut être clarifié en utilisant les résultats existants Ce qui nécessite réellement de nouvelles expériences Ce qui doit être reconnu sans trop s'engager Un agent vérificateur audite ce plan pour la cohérence logique et la sécurité des engagements. Si une réponse implique des résultats qui n'existent pas, elle est bloquée. Les hallucinations meurent ici....