Qodo surpasse Claude Code Review avec un rappel supérieur de 19 % et coûte 10 fois moins par revue. Pourquoi cela compte pour les développeurs d'IA : @QodoAI vient de publier une comparaison utilisant leur benchmark ouvert : 100 vraies demandes de tirage, 580 problèmes injectés, 8 dépôts de production à travers TypeScript, Python, JavaScript, C, C#, Rust et Swift. Les trois outils atteignent 79 % de précision, ce qui signifie que la qualité des résultats individuels est comparable. L'écart provient du rappel. Claude Code Review est à 52 %, Qodo Default à 60 % et Qodo Extended à 71 %. C'est formidable de voir l'attention portée au rappel, qui est très important dans ce cas d'utilisation. La précision peut être ajustée après traitement, mais le rappel reflète à quel point un système comprend profondément la base de code et raisonne sur les interactions entre fichiers. Si un problème n'est jamais signalé, aucun filtrage ne peut aider. Encore plus impressionnant est la façon dont l'agent spécialisé attrape le reste de la vérité de terrain. Qodo Extended déploie un système multi-agent où des agents spécialisés se concentrent sur différentes catégories de problèmes (erreurs logiques, meilleures pratiques, cas limites, dépendances entre fichiers), puis fusionnent les résultats par vérification et dé-duplication. Il tire également parti de la diversité des modèles à travers OpenAI, Anthropic et Google plutôt que d'être verrouillé à un seul fournisseur. En ce qui concerne le coût, Qodo rapporte des prix par revue significativement plus bas par rapport au modèle basé sur des jetons de Claude, à 15 $ - 25 $ par revue.