Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dikkatle takip etmeye değer bir makale.
Uzun bağlamları nasıl yönettiğini yeniden çerçeveleyen Kayıpsız Bağlam Yönetimi (LCM) sunuyor.
Uzun bağlamlı görevlerde Claude Code'u geride bırakır.
Özyinelemeli Dil Modelleri, modele kendi bellek betiklerini yazma konusunda tam özerklik verir. LCM bu gücü geri alıyor ve eski mesajları hiyerarşik bir DAG'a sıkıştıran deterministik bir motora veriyor; bu motor, her orijinale kayıpsız işaretler bırakıyor. Teoride daha az ifade edici, pratikte çok daha güvenilir.
Sonuçlar:
Ajanları (Volt, Opus 4.6'da) OOLONG kıyaslamasında *her* bağlam uzunluğunda 32K'dan 1M token'a kadar Claude Code'u geçiyor. +29.2 puan ortalama iyileşme, Claude Code'un +24.7 puanına karşılık. Fark daha uzun bağlamlarda daha da genişler.
İma şu ki, yazılım mühendisliği tarihinden sürekli tekrar öğreniyoruz: modelin gördüklerini nasıl yöneteceğiniz, modele kendisini yönetmesi için araçlar vermekten daha önemli olabilir. "Model çözsün" bellek stratejileriyle birlikte gönderilen her ajan framework, tamamen yanlış soyutlama üzerine inşa edilmiş olabilir.
Makale:
Akademimizde etkili yapay zeka ajanları oluşturmayı öğrenin:

En İyiler
Sıralama
Takip Listesi
