BESAR > Langkah-3.5-Flash oleh StepFun > Agen & Pengkodean MONSTER > Opensource MoE, Apache-2.0 > berjalan dengan konteks penuh di > 2x RTX PRO 6000/8x RTX 3090s > 196B MoE, hanya 11B yang aktif per token > konteks 256K melalui perhatian jendela geser 3:1 > basis kode yang panjang & tugas yang panjang, konteks panjang yang hemat biaya Tolok ukur > > 74.4% SWE-bench Diverifikasi > 51.0% Terminal-Bench 2.0 > penalaran yang kuat, pengkodean yang kuat, agen stabil > perutean MoE + Top-8 yang jarang > dengan perhatian jendela geser > MTP-3 memprediksi beberapa token sekaligus > 100–300 tok/s khas, puncak ~350 tok/s > cukup cepat untuk agen paralel, bukan hanya mengobrol > Apache-2.0 > kelas terbuka > berjalan secara lokal > Mac, DGX Spark, GPU > vLLM, SGLang, Transformers, llama.cpp > inilah yang "Beli GPU" mencoba memperingatkan Anda...