Templar, 70+ katılımcıyla 72 milyar parametrelik bir modeli meta interneti üzerinden eğitti. Bu, şimdiye kadarki en büyük tamamen açık, merkeziyetsiz ön eğitim çalışmasıdır. Seyrek lokomotif optimizer'ları verileri 146x sıkıştırarak ev bağlantılarının katkıda bulunmasını sağlıyordu. @tplr_ai için gerçek atılım, güvenilmeyenlerin bir modeli hile yapmadan eğitmesini sağlamak, onların zorlu doğrulama sistemi sayesinde. Ama yine de katılmak için 8 adet B200 GPU (~$250K) gerekiyordu. Bu, iyi büyük sermaye kullanmış operatörler için bir kavram kanıtıydı... şimdilik Merkeziyetsiz eğitim bir gün sınır modellerine yaklaşabilir, ancak ancak donanım bariyeri önemli ölçüde düşerse.