Lucrare de cercetare excelentă. 🚨 LLM-urile sunt groaznice la replici. Această lucrare arată exact de ce. Majoritatea instrumentelor AI tratează replicile ca pe o sarcină de scriere. Generează text politicos. Sună încrezător. Mergi mai departe. Tocmai de aceea eșuează la conferințele de top. Această cercetare răstoarnă întreaga problemă a replicilor. În loc să "genereze un răspuns", tratează replicile ca o sarcină de organizare a deciziilor + probelor. Sistemul, numit RebuttalAgent, este o conductă multi-agent care refuză să scrie orice până când logica nu este etanșă. În primul rând, atomizează feedback-ul recenzorilor. Fiecare paragraf vag este împărțit în preocupări precise și acționabile. Niciun punct ratat. Fără să împachetezi critici fără legătură. Acoperirea este aplicată înainte să se întâmple altceva. Urmează adevărata inovație: raționamentul bazat pe dovezi. Pentru fiecare preocupare, sistemul construiește un context hibrid. Majoritatea lucrării rămâne comprimată pentru a salva token-uri, dar secțiunile exacte relevante pentru acel comentariu al recenzorului sunt extinse în fidelitate maximă. Dacă dovezile interne nu sunt suficiente, un agent de căutare la cerere recuperează documente externe și le transformă în memorii gata de citare. Nimic nu este citat decât dacă este trasabil. Apoi urmează pasul pe care majoritatea instrumentelor LLM îl sar complet: verificarea strategiei. Înainte de redactare, RebuttalAgent generează un plan explicit de răspuns. Separă: Ce poate fi clarificat folosind rezultatele existente Ce necesită cu adevărat experimente noi Ce ar trebui recunoscut fără a te angaja prea mult Un agent de verificare auditează acest plan pentru coerență logică și siguranță a angajamentului. Dacă un răspuns implică rezultate care nu există, acesta este blocat. Halucinațiile mor aici....