MASSIV Das Jahr der lokalen LLMs beginnt offiziell mit GLM-4.7-Flash von Zhipu AI > 30B-A3B MoE > gebaut für Verbraucher-GPUs > von deinem Keller aus ausführbar > die stärkste 30B-Klasse Veröffentlichung, die wir je gesehen haben Das ist DAS BESTE <=70B Das ich jemals lokal ausgeführt habe, BTW Architektur > DeepSeek-Stil MLA Aufmerksamkeit > schlanke MoE-Routing > 30B Gesamtparameter, ~4B aktiv > 64 Experten insgesamt, 5 aktiv (inkl. geteilt) Tiefe & Absicht > ungefähr GLM-4.5-Air-Klasse > aber härter auf Lokalität abgestimmt Benchmarks SWE-bench Verifiziert > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > nicht das gleiche Universum...