القيام بالمزيد بأقل بكثير — بعض معايير النماذج الرائدة في المصادر المفتوحة. "على الرغم من العمل بجزء بسيط من عدد المعلمات النشطة، تحقق قاعدة ZAYA1 (760 متر نشطة) أداء مماثلا للنماذج الرائدة مثل Qwen3-4B (علي بابا) وGemma3-12B (جوجل)، ويتفوق على نماذج مثل Llama-3-8B (Meta) وOLMoE في معايير الاستدلال والرياضيات والترميز." —  الرسم البياني الأول — تفاصيل عن الانتباه التصافي المضغوط (CCA) لزيفرا: ملاحظة: الرد على شعاري: "زيفرا ببساطة *هي* البحث العميق للغرب... ليس أقلها لأنها واحدة من أكثر المختبرات الغربية انفتاحا وديموغرافيا (بينما DeepSeek بالطبع صينية 100٪). الصرامة الرياضية والثقافة العلمية." — + المدونة التقنية: و + ورقة تقنية: + وجه العناق: