BÜYÜK Yerel LLM'ler yılı resmen başlıyor Zhipu AI tarafından GLM-4.7-Flash ile > 30B-A3B MoE > tüketici GPU'ları için üretilmiştir > bodrumdan koşulabilir > gördüğümüz en güçlü 30B sınıfı sürüm Bu EN İYİ <=70B Bu arada, hiç yerel olarak koştum Mimari > DeepSeek tarzı milletvekili ilgisi > MoE yönlendirmesi ince > 30B toplam param, ~4B aktif > toplamda 64 uzman, 5 aktif (paylaşılanlar dahil) Derinlik ve niyet > yaklaşık GLM-4.5-Air sınıfı > ama yerliliğe göre daha sert ayarlandı Benchmarklar SWE-bench Doğrulandı > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > aynı evren değil...