MASYWNE > Krok-3.5-Flash od StepFun > Agentic & Coding MONSTER > opensource MoE, Apache-2.0 > działa z pełnym kontekstem na > 2x RTX PRO 6000/8x RTX 3090s > 196B MoE, tylko 11B aktywnych na token > 256K kontekstu przez 3:1 przesuwane okno uwagi > długie bazy kodu i długie zadania, efektywne kosztowo długie konteksty > benchmarki > 74.4% SWE-bench Zweryfikowane > 51.0% Terminal-Bench 2.0 > silne rozumowanie, silne kodowanie, stabilne agenty > rzadkie MoE + Top-8 routowanie > z przesuwanym oknem uwagi > MTP-3 przewiduje wiele tokenów jednocześnie > 100–300 tok/s typowo, szczyty ~350 tok/s > wystarczająco szybkie dla równoległych agentów, nie tylko do czatowania > apache-2.0 > openweights > działa lokalnie > Maci, DGX Spark, GPU > vLLM, SGLang, Transformers, llama.cpp > to jest to, o czym "Kup GPU" próbowało cię ostrzec...