Fare di più con molto meno — alcuni parametri di riferimento dei principali modelli open source. "Nonostante operi con una frazione del numero attivo di parametri, ZAYA1-base (760m attivi) raggiunge prestazioni comparabili a modelli leader come Qwen3-4B (Alibaba) e Gemma3-12B (Google), e supera modelli tra cui Llama-3-8B (Meta) e OLMoE in benchmark di ragionamento, matematica e codifica." — Primo grafico — dettagli sull'Attenzione Convoluzionale Compressa (CCA) di Zyphra: P.S. la risposta al mio slogan: "Zyphra è ironicamente *il* DeepSeek dell'Occidente... non ultimo perché è uno dei laboratori più aperti *e* demograficamente occidentali (mentre DeepSeek è ovviamente 100% cinese). Rigor matematico e cultura scientifica." — + Blog Tecnico: e + Documento Tecnico: + Hugging Face: