Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Píší AI agenti skutečně testy?
Testování je klíčové pro správnost a udržovatelnost softwaru. Jak autonomní agenti stále častěji zasílají pull requesty, je pochopení jejich testovacího chování zásadní.
Tento nový výzkum analyzuje datovou sadu AIDev za účelem studia vzorců začlenění do testů v pull requestech generovaných agenty.
Zkoumali, jak často se testy objevují, kdy jsou během životního cyklu PR zaváděny a jak se PR obsahující testy liší od těch, které testy nemají.
Zjištění odhalují zajímavé vzorce. PR obsahující testy se časem stávají běžnějšími napříč agenty, což naznačuje zlepšení chování při testování. Ale tyto osobní rekordy bývají větší a trvá déle než ty bez testu.
Míra sloučení zůstává převážně stejná bez ohledu na zařazení do testů. To vyvolává otázky, zda recenzenti oceňují testy generované agenty, nebo jednoduše nepenalizují jejich absenci.
Tato práce odhaluje významné rozdíly mezi různými agenty. Někteří agenti vykazují vyšší míru adopce testů než jiní. Rovnováha mezi testovacím kódem a produkčním kódem v rámci PR obsahujících testy se také výrazně liší podle agenta.
To naznačuje, že testovací schopnosti nejsou napříč agentickými kódujícími nástroji rozvíjeny jednotně. Někteří jsou lepší v dodržování testovacích konvencí než jiní.
Jak firmy zavádějí AI agenty pro kódování, je pochopení jejich testovacího chování zásadní pro kvalitu kódu. Agenti, kteří vynechávají testy nebo píší nedostatečné testy, vytvářejí technický dluh. Toto empirické základy pomáhají identifikovat, kteří agenti odpovídají dobrým softwarovým inženýrským praktikám a kde jsou potřeba zlepšení.
Článek:
Naučte se vytvářet efektivní AI agenty v naší akademii:

Top
Hodnocení
Oblíbené
