Üretim yapay zeka ekiplerinin %70'i açık kaynak modeller kullanıyor. %72,5'i ajanları veritabanlarına bağlıyor, sohbet arayüzlerine değil. 375 teknik geliştiricilerin aslında sunduğu şey bu - ve Twitter yapay zekasına hiç benzemiyor. Ekiplerin %70'i bir şekilde açık kaynak modelleri kullanıyor. %48'i stratejisini çoğunlukla açık olarak tanımlıyor. %22'si sadece açık olmaya karar veriyor. Sadece %11'i tamamen mülkiyetli kalıyor. Sahadaki ajanlar sistem operatörleridir, sohbet arayüzleri değil. Ajanların çoğunlukla API'leri çağıracağını düşünüyorduk. Bunun yerine, %72,5'i veritabanlarına bağlanıyor. %61'i web aramasına. %56'sı bellek sistemleri ve dosya sistemlerine yöneldi. %47'si kod yorumlayıcılarına. Ağırlık merkezi veri ve uygulamadır, konuşma değil. Gelişmiş ekipler, kendi iç sistemlerine (%58) ve harici API'lere (%54) erişmek için MCP'ler inşa eder. Sentetik veri, eğitimden daha fazla değerlendirmeyi güçlendirir. %65'i değerlendirme üretimi için sentetik veri kullanırken, %24'ü ince ayar için kullanılır. Bu, sentetik eğitim verisi ölçeklenmeden önce değerlendirme veri pazarları, senaryo kütüphaneleri ve başarısızlık modu korpuslarında yakın vadede bir artışa işaret ediyor. Zamanlama, yığının nereye gittiğini gösteriyor. Ekipler, üretimi ölçeklendirmeden önce doğruluğu doğrulamalıdır. %88'i bağlamı iyileştirmek için otomatik yöntemler kullanıyor. Yine de yapay zeka ürünlerinin uygulanmasında #1 sorun noktası olarak kalmaya devam ediyor. Araç benimseme ile problem çözümü arasındaki bu boşluk, temel bir zorluğu işaret ediyor. Araçlar var. Sorun, daha iyi geri alma veya daha akıllı parçalama gibi şeylerden daha zor. Ekipler, üretimi ölçeklendirmeden önce doğruluğu doğrulayan sistemlere ihtiyaç duyar. Araçlar var. Sorun, daha iyi bir geri alma yönteminin çözebileceğinden daha zor. Bağlam, yeni nesil yapay zeka altyapısı için gerçek zorluk ve en büyük fırsat olmaya devam ediyor. Tam etkileşimli veri setini buradan keşfedin veya Lauren'ın tam analizini okuyun: