Wofür ist Peer-Review da? Stellen Sie sich vor, #AI kann technisch korrekte Rückmeldungen geben, die den gleichen Inhalt wie die durchschnittliche Bewertung haben, dann ist es wichtig, was diese bestimmten Gutachter für wichtig halten („Geschmack“)?
Andrew Ng
Andrew Ng25. Nov. 2025
Releasing a new "Agentic Reviewer" for research papers. I started coding this as a weekend project, and @jyx_su made it much better. I was inspired by a student who had a paper rejected 6 times over 3 years. Their feedback loop -- waiting ~6 months for feedback each time -- was painfully slow. We wanted to see if an agentic workflow can help researchers iterate faster. When we trained the system on ICLR 2025 reviews and measured Spearman correlation (higher is better) on the test set: - Correlation between two human reviewers: 0.41 - Correlation between AI and a human reviewer: 0.42 This suggests agentic reviewing is approaching human-level performance. The agent grounds its feedback by searching arXiv, so it works best in fields like AI where research is freely published there. It’s an experimental tool, but I hope it helps you with your research. Check it out here:
Ich habe als Gutachter oft mit diesem Problem zu kämpfen: Ich denke, dass #AI ziemlich genaue technische Kommentare liefert. Damit meine Arbeit als Gutachter wirklich sinnvoll erscheint, muss ich glauben, dass meine persönliche Meinung und Sichtweise wichtig sind. Aber sollten die Meinungen/Geschmäcker der Gutachter eine Rolle spielen?
1,92K