Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
RAG bozuk ve kimse bundan 🤯 bahsetmiyor
Stanford, "Anlamsal Çöküş" üzerine bir makale yayınladı ve bilgi tabanınız ~10.000 belgeye ulaştığında, anlamsal aramanın kelimenin tam anlamıyla yazı tura dönüştüğünü kanıtladı.
İşte RAG'ınızın neden arızalandığı:
10.000 belgeyi geçtikten sonra, süslü yapay zeka aramanız adeta yazı tura dönüşüyor.
Eklediğiniz her belge yüksek boyutlu bir göme dönüşüyor. Küçük ölçekte, benzer belgeler mükemmel bir şekilde bir arada toplanır. Ama yeterince veri eklediğinizde alan doluyor. Mesafeler daralır. Her şey "alakalı" görünüyor.
Bu boyutluluk laneti. 1000D alanında, verilerinizin %99,9'u dış kabuk üzerinde, herhangi bir sorguya neredeyse eşit mesafededir.
Stanford, 50 bin belgede %87 hassasiyet düşüşü tespit etti. Daha fazla bağlam eklemek aslında halüsinasyonları daha kötü hale getirir, daha iyi değil. RAG'ın halüsinasyonları çözdüğünü sanıyorduk... Sadece onları matematiğin arkasına saklıyordu.
Çözüm yeniden sıralama veya daha iyi parçalama değil. Hiyerarşik arama ve grafik veritabanları.

En İyiler
Sıralama
Takip Listesi
