MASSIV Året för lokala LLM:er börjar officiellt med GLM-4.7-Flash av Zhipu AI > 30B-A3B MoE > byggda för konsument-GPU:er > löpbara från din källare > starkaste 30B-klass utgåva vi någonsin sett Detta är DEN BÄSTA <=70B Jag har förresten kört lokalt Arkitektur > DeepSeek-liknande MLA-uppmärksamhet > smal MoE-rutting > totalt 30 miljarder parametrar, ~4 miljarder aktiva > totalt 64 experter, 5 aktiva (inkl. delade) Djup och avsikt > ungefär GLM-4.5-Air-klassen > men stämt hårdare för lokalitet Riktmärken SWE-bench verifierad > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22,0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38,8 > inte samma universum...