Å gjøre mer med mye mindre — noen referansepunkter for de ledende open source-modellene. "Til tross for å operere med en brøkdel av det aktive parameterantallet, oppnår ZAYA1-base (760 m aktiv) ytelse som kan sammenlignes med ledende modeller som Qwen3-4B (Alibaba) og Gemma3-12B (Google), og overgår modeller som Llama-3-8B (Meta) og OLMoE innen resonnement, matematikk og kodebenchmarks." —  Første diagram — detaljer om Zyphras komprimerte konvolusjonelle oppmerksomhet (CCA): P.S. svaret på slagordet mitt: «Zyphra *er* uironisk *DeepSeek i Vesten... ikke minst fordi det er et av de mest åpne *og* demografisk vestlige laboratoriene (mens DeepSeek selvfølgelig er 100 % kinesisk). Matematisk strenghet og vitenskapelig kultur." — + Teknisk blogg: og + Teknisk artikkel: + Klemmeansikt: