Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Sadece uzmanlar değil, gömülerin ölçeklendirilmesi—verimli LLM'ler için yeni bir yol sunuyor.
Ana Bulgu: Yüksek seyreklik senaryolarında, N-gram gömmeleri, sadece daha fazla MoE uzmanı eklemekten daha iyi bir Pareto sınırı sağlar.
Bu nedenle, bu içgörü üzerine inşa edilen ilk açık kaynak modeli olan LongCat-Flash-Lite'ı tanıtıyoruz.
⚙️ 68.5B Toplam Param(37.13B gömülü olmayan) | 2.9B~4.5B Aktif
📊 Yüksek Performans: SWE-Bench 54.4 | τ²-Bench 72.8 | TerminalBench 33.75
📃 256K Bağlam Penceresi (YARN güçlü)
✨ Ajanik/Kodlama için optimize edilmiş, genel akıl yürütme açısından güçlü
⚡ ~700 token/s zirve çıkarım hızı
Sonuç: Kendi ölçeği içinde rekabetçi performans ve maliyet açısından önemli ölçüde daha düşük bir maliyet ve gecikmeyle elde eder.
Sarılma Yüz:
Teknik Rapor:



20
🚀 LongCat-Flash-Thinking-2601 Teknik Raporu – Şimdi Tam Olarak Yayınlandı!
Temel bilgiler:
🌍 Büyük ölçekli ajanik gerçek deneyim (14 sayfa derinlemesine inceleme!)
🔹 Ortam ölçeklendirme: 20+ alan içinde 10.000+ çalıştırılabilir, doğrulanabilir ortam oluşturan otomatik pipeline'ımıza ayrıntılı bir bakış.
🔹 RL altyapısı: 32.000+ eşzamanlı ortamda asenkron eğitimi destekleyen ve uzun kuyruklu ve yüksek heterojen görevlerde istikrar sorunlarını çözen yükseltilmiş bir DORA çerçevesi.
🛡️ Vahşi doğada dayanıklılık
🔹 Gürültü enjeksiyonu: Artık "sera" maddesi yok. Gerçek dünya gürültüsünü (kullanıcı/araç gürültüsü) sistematik olarak analiz eder ve doğrudan eğitim döngüsüne entegre ederiz.
🔹 Müfredat RL: Karmaşık ve kusurlu ortamlara karşı modeli yavaş yavaş sertleştiren müfredat temelli bir strateji.
🧠 Ağır Düşünme Çerçevesi
🔹 Paralel akıl yürütme: Birden fazla bağımsız akıl yürütme yörüngesi oluşturarak genişliği genişletir.
🔹 Yinelemeli özetleme: Nihai kararlar vermeden önce paralel yörüngeleri yansıtmak ve sentezlemek için özet model kullanarak derinliği genişletir.
🔹 Bağlam belleği: Uzun ufuklar boyunca akıl yürütmeyi tutarlı tutmak için özel olarak tasarlanmış bir bellek modülü.
⚡ Zigzag Dikkat
🔹 MLA + SSA'yı birleştiren Zigzag Connectivity tasarımı, hesaplamayı azaltırken küresel bilgi akışını koruyor.
🔹 Eğitim ortasında seyrek varyantlara geçiş 1.5× hızlanma sağlar ve 1M-token bağlamlarını destekler — uzun bağlamlı ajanik akıl yürütmede gelecekteki atılımların temelini oluşturur.
🔹 Keşfedin:
📊 SOTA arasında başarılar
Anahtar ajanik kıyaslamalar arasında açık kaynak modeller: arama, araç kullanımı, matematiksel akıl yürütme ve kodlama.
Daha fazla detay isterseniz, tam teknik raporu incelemekten çekinmeyin.
• Makale:
• Web Sitesi:
• GitHub:
• Sarılma Yüzü:




2
🚀 LongCat-Flash-Thinking-2601'i tanıtıyoruz — Derin ve genel ajanik düşünme için tasarlanmış bir versiyon.
✨ Öne Çıkanlar:
🤖 Üst Düzey Ajan Yetenekleri
🔹 Performans: En üst düzey kıyaslama sonuçları (TIR / Ajanik Arama / Ajanik Araç Kullanımı); mükemmel genelleme yeteneği, karmaşık, rastgele görevlerde Claude'u geride bırakıyor
🔹 Çevre Ölçeklendirme: Birden fazla otomatik olarak oluşturulan yüksek kaliteli ortamlar; yoğun bağımlılık grafiği
🔹 Çok Bölgeli RL: Genişletilmiş DORA (bizim RL infratuzumuz), büyük ölçekli çok ortamlı ajanik eğitimi destekliyor
🛡️ Gerçek Dünya Dayanıklılığı
🔹 Performans: Karmaşık ve belirsiz durumlarda sağlam performans (Vita-Noise & Tau^2-Noise)
🔹 Gürültü Analizi: Ajanik senaryolarda gerçek dünya gürültüsünün sistematik olarak analiz edilmesi
🔹 Müfredat Gerçek Eğitim: Eğitim sırasında gürültü tipini ve yoğunluğunu artırmak
🎯 Ağır Düşünme Modu
🔹 Paralel Düşünme: Birden fazla bağımsız akıl yürütme yolu aracılığıyla genişliği genişletir
🔹 Yinelemeli Özetleme: Çıktıları sentezlemek için özet model kullanarak derinliği artırır ve yineleme döngülerini destekler
📅 Bir şey daha: Zigzag üzerinden 1M-token bağlamı yakında geliyor.
🔍 Şimdi dene:
✅ Bu sürüm için API erişimi de mevcuttur.
Sarılma Yüz:
GitHub:


2
En İyiler
Sıralama
Takip Listesi
