Hacer más con mucho menos — algunos benchmarks de los principales modelos de código abierto. "A pesar de operar con una fracción del conteo de parámetros activos, la base ZAYA1 (760 m activos) logra un rendimiento comparable al de modelos líderes como Qwen3-4B (Alibaba) y Gemma3-12B (Google), y supera a modelos como Llama-3-8B (Meta) y OLMoE en benchmarks de razonamiento, matemáticas y codificación." —  Primer gráfico — detalles sobre la Atención Convolucional Comprimida (CCA) de Zyphra: P.D. la respuesta a mi eslogan: "Zyphra *es* sin ironía el DeepSeek del Oeste... sobre todo porque es uno de los laboratorios más abiertos *y* demográficamente occidentales (mientras que DeepSeek, por supuesto, es 100% chino). Rigor matemático y cultura científica." — + Blog técnico: y + Artículo técnico: + Cara de abrazo: