Fantastisk forskningsuppsats. 🚨 LLM:er är usla på att bemöta dem. Denna artikel visar exakt varför. De flesta AI-verktyg behandlar genmäler som en skrivuppgift. Skapa artig text. Låter självsäker. Gå vidare. Det är just därför de misslyckas i toppkonferenser. Denna forskning vänder hela motargumentet upp och ner. Istället för att "generera ett svar" behandlas bemötanden som en uppgift för beslut + evidensorganisation. Systemet, kallat RebuttalAgent, är en multiagent-pipeline som vägrar skriva något förrän logiken är vattentät. För det första atomiserar det granskarens feedback. Varje vagt stycke bryts upp i precisa, handlingsbara frågor. Inga poäng missades. Ingen samling av orelaterade kritikpunkter. Försäkringen upprätthålls innan något annat händer. Nästa kommer den verkliga innovationen: bevisförst-resonemang. För varje fråga bygger systemet en hybridkontext. Det mesta av artikeln förblir komprimerad för att spara tokens, men de exakta sektionerna som är relevanta för den granskarens kommentar är utökade i full trovärdighet. Om interna bevis inte räcker hämtar en on-demand-sökagent externa artiklar och omvandlar dem till citeringsklara yttranden. Inget får böter om det inte är spårbart. Sedan kommer steget som de flesta LLM-verktyg hoppar över helt: strategiverifiering. Innan utkastet genererar RebuttalAgent en explicit responsplan. Den skiljer åt: Vad kan klargöras med hjälp av befintliga resultat Vad som verkligen kräver nya experiment Vad som bör erkännas utan att överdriva åtaganden En kontrollagent granskar denna plan för logisk konsekvens och säkerhet vid engagemang. Om ett svar antyder resultat som inte existerar, blockeras det. Här. Hallucinationer dör här....