Çok daha az şeyle daha fazlasını yapmak — önde gelen açık kaynak modellerinin bazı kıyaslamaları. "Aktif parametre sayısının çok bir kısmında çalışmasına rağmen, ZAYA1 tabanı (760m aktif) Qwen3-4B (Alibaba) ve Gemma3-12B (Google) gibi öncü modellerle karşılaştırılabilir performans sergiliyor ve Llama-3-8B (Meta) ve OLMoE gibi modelleri akıl yürütme, matematik ve kodlama benchmarklarında geride bırakıyor." —  İlk grafik — Zyphra'nın Sıkıştırılmış Konvolüsyon Dikkat (CCA) detayları: Not: sloganıma verilen yanıt: "Zyphra ironik olmayan bir şekilde *Batı'nın Derin Arak'ıdır... özellikle de en açık *ve* demografik olarak Batılı laboratuvarlardan biri olduğu için (DeepSeek ise tabii ki %100 Çinli). Matematiksel titizlik ve bilimsel kültür." — + Teknik Blog: ve + Teknik Makale: + Sarılma Yüzü: