Yapay zeka kodlama ajanları gerçekten test yazıyor mu? Test etmek, yazılımın doğruluğu ve sürdürülebilirliği açısından kritiktir. Otonom ajanlar giderek daha fazla pull talepleri gönderdikçe, test davranışlarını anlamak hayati hale geliyor. Bu yeni araştırma, ajan tarafından oluşturulan çekme taleplerindeki test dahil etme kalıplarını incelemek için AIDev veri setini analiz etmektedir. Testlerin ne sıklıkla ortaya çıktığını, PR yaşam döngüsünde ne zaman tanıtıldıklarını ve test içeren PR'ların testsizlerden nasıl farklı olduğunu incelediler. Bulgular ilginç kalıplar ortaya koyuyor. Test içeren PR'lar, ajanlar arasında zamanla daha yaygın hale gelmiş ve bu da test davranışının iyileşmesini önermektedir. Ancak bu PR'lar, test dışı PR'lara göre genellikle daha büyük ve tamamlanması daha uzun sürer. Birleştirme oranları test dahil edilmeye bakılmaksızın büyük ölçüde benzer kalır. Bu durum, inceleyicilerin ajan tarafından oluşturulan testlere değer verip vermediği ya da yokluklarını cezalandırmadıkları konusunda soruları gündeme getiriyor. Bu çalışma, farklı ajanlar arasında önemli farklılıklar ortaya koymaktadır. Bazı ajanlar diğerlerinden daha yüksek test benimseme oranları gösterir. Test içeren PR'lar içindeki test kodu ile üretim kodu arasındaki denge de ajana göre önemli ölçüde değişir. Bu, test yeteneğinin ajanik kodlama araçlarında eşit şekilde gelişmediğini gösterir. Bazıları test kurallarını diğerlerinden daha iyi takip ediyor. Şirketler yapay zeka kodlama ajanlarını benimsedikçe, test davranışlarını anlamak kod kalitesi için çok önemlidir. Testleri atlayan veya yetersiz test yazan ajanlar teknik borç oluşturur. Bu ampirik temel, hangi ajanların iyi yazılım mühendisliği uygulamalarıyla uyumlu olduğunu ve nerede iyileştirme gerektiğini belirlemeye yardımcı olur. Makale: Akademimizde etkili yapay zeka ajanları oluşturmayı öğrenin: