Ottimo articolo di ricerca. 🚨 I LLM sono terribili nei contraddittori. Questo articolo mostra esattamente perché. La maggior parte degli strumenti AI tratta i contraddittori come un compito di scrittura. Genera testo educato. Suona sicuro. Passa oltre. È proprio per questo che falliscono nelle conferenze di alto livello. Questa ricerca capovolge completamente il problema del contraddittorio. Invece di "generare una risposta", tratta i contraddittori come un compito di decisione + organizzazione delle prove. Il sistema, chiamato RebuttalAgent, è una pipeline multi-agente che rifiuta di scrivere qualsiasi cosa finché la logica non è ineccepibile. Innanzitutto, atomizza il feedback dei revisori. Ogni paragrafo vago viene suddiviso in preoccupazioni precise e attuabili. Nessun punto trascurato. Nessun raggruppamento di critiche non correlate. La copertura è imposta prima che accada qualsiasi altra cosa. Poi arriva la vera innovazione: ragionamento basato sulle prove. Per ogni preoccupazione, il sistema costruisce un contesto ibrido. La maggior parte dell'articolo rimane compressa per risparmiare token, ma le sezioni esatte rilevanti per quel commento del revisore vengono ampliate in piena fedeltà. Se le prove interne non sono sufficienti, un agente di ricerca on-demand recupera articoli esterni e li converte in brevi pronti per la citazione. Nulla viene citato a meno che non sia tracciabile. Poi arriva il passo che la maggior parte degli strumenti LLM salta completamente: verifica della strategia. Prima di redigere, RebuttalAgent genera un piano di risposta esplicito. Separa: Cosa può essere chiarito utilizzando risultati esistenti Cosa richiede realmente nuovi esperimenti Cosa dovrebbe essere riconosciuto senza sovraimpegnarsi Un agente di controllo verifica questo piano per coerenza logica e sicurezza degli impegni. Se una risposta implica risultati che non esistono, viene bloccata. Le allucinazioni muoiono qui....