Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Qodo übertrifft Claude Code Review um 19% höhere Rückrufquote und kostet 10x weniger pro Überprüfung.
Warum das für AI-Entwickler wichtig ist:
@QodoAI hat gerade einen Vergleich veröffentlicht, der ihren offenen Benchmark verwendet: 100 echte Pull-Requests, 580 injizierte Probleme, 8 Produktionsrepositories in TypeScript, Python, JavaScript, C, C#, Rust und Swift.
Alle drei Tools erreichen eine Präzision von 79%, was bedeutet, dass die Qualität der einzelnen Ergebnisse vergleichbar ist.
Die Differenz ergibt sich aus dem Rückruf.
Claude Code Review liegt bei 52%, Qodo Default bei 60% und Qodo Extended bei 71%.
Es ist großartig zu sehen, dass der Rückruf, der in diesem Anwendungsfall sehr wichtig ist, Beachtung findet.
Die Präzision kann nach der Verarbeitung angepasst werden, aber der Rückruf spiegelt wider, wie tief ein System den Codebestand versteht und über Interaktionen zwischen Dateien nachdenkt.
Wenn ein Problem nie markiert wird, hilft kein Filtern.
Noch beeindruckender ist, wie der spezialisierte Agent die verbleibende Grundwahrheit erfasst.
Qodo Extended setzt ein Multi-Agenten-System ein, bei dem spezialisierte Agenten sich auf verschiedene Problemkategorien (logische Fehler, bewährte Praktiken, Randfälle, dateiübergreifende Abhängigkeiten) konzentrieren und dann die Ausgaben durch Verifizierung und Duplikatsentfernung zusammenführen.
Es nutzt auch die Modellvielfalt von OpenAI, Anthropic und Google, anstatt an einen einzigen Anbieter gebunden zu sein.
Was die Kosten betrifft, berichtet Qodo von deutlich niedrigeren Preisen pro Überprüfung im Vergleich zu Claudes tokenbasiertem Modell von 15 bis 25 Dollar pro Überprüfung.

Top
Ranking
Favoriten
