MASIVNÍ Rok místních LLM oficiálně začíná s GLM-4.7-Flash od Zhipu AI > 30B-A3B MoE > postavený pro spotřebitelské GPU > běžné z vašeho sklepa > nejsilnější vydání třídy 30B, jaké jsme kdy viděli Tohle je NEJLEPŠÍ <=70B. Mimochodem, nikdy jsem neběhal lokálně Architektura > Pozornost poslanců ve stylu DeepSeek > úzké vedení MoE > 30B celkových parametrů, ~4B aktivních > celkem 64 expertů, 5 aktivních (včetně sdílených) Hloubka a záměr > přibližně třída GLM-4.5-Air > ale pro lokalitu jsem byl naladěn přísněji Benchmarky SWE-bench ověřeno > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22,0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38,8 > to není stejný vesmír...