Dělat více s mnohem méně — některými benchmarky předních open source modelů. "Přestože ZAYA1-base (760 m aktivní) pracuje na zlomku počtu aktivních parametrů, dosahuje výkonu srovnatelného s předními modely jako Qwen3-4B (Alibaba) a Gemma3-12B (Google) a překonává modely včetně Llama-3-8B (Meta) a OLMoE v benchmarkech v oblasti uvažování, matematiky a programování." —  První graf — podrobnosti o Zyphřině komprimované konvoluční pozornosti (CCA): P.S. odpověď na můj slogan: "Zyphra je bez ironie *je* DeepSeek západu... zejména proto, že je to jedna z nejotevřenějších *a demograficky* nejzápadnějších laboratoří (zatímco DeepSeek je samozřejmě stoprocentně čínské). Matematická přesnost a vědecká kultura." — + Technický blog: a + Technický článek: + Objímající obličej: