QodoはClaude Code Reviewを19%高いリコール率で上回り、レビュー1回のコストは10倍安いです。 なぜこれがAI開発者にとって重要なのか: @QodoAIオープンベンチマークを使った比較を発表しました:100件の実際のプルリクエスト、580件の注入されたイシュー、TypeScript、Python、JavaScript、C、C#、Rust、Swiftの8つの本番リポジトリです。 これら3つのツールはすべて79%の精度を達成しており、個々の発見の質は同等です。 そのギャップはリコール(記憶力)から来ています。 Claude Code Reviewは52%、Qodo Defaultは60%、Qodo Extendedは71%です。 この用途で非常に重要なリコールに注意を払っているのは素晴らしいことです。 精度は後処理で調整可能ですが、リコールはシステムがコードベースをどれだけ深く理解し、ファイル間の相互作用について理解しているかを反映します。 問題が一度も指摘されなければ、どんなにフィルタリングしても効果がありません。 さらに印象的なのは、専門のエージェントが残った実際の事実を捉えている点です。 Qodo Extendedはマルチエージェントシステムを展開し、専門的なエージェントが異なるイシューカテゴリ(論理エラー、ベストプラクティス、エッジケース、クロスファイル依存関係)に集中し、検証と重複除去を通じて出力を統合します。 また、OpenAI、Anthropic、Googleのモデル多様性を活用し、単一のプロバイダーに縛られるのではありません。 コスト面では、QodoはClaudeのトークンベースモデルと比べて1レビューあたり15〜25ドルと大幅に低価格を報告しています。