Templar právě natrénoval model s 72 miliardami parametrů přes komoditní internet se 70+ účastníky. Jedná se o největší plně otevřený decentralizovaný předškolení vůbec. Jejich optimalizátor řídkých lokomotiv komprimoval data 146x, což umožnilo přispívat k připojení domácností. Skutečným průlomem pro @tplr_ai je přimět nedůvěryhodné cizince, aby trénovali model bez podvádění, díky jejich systému ověřování Gauntlet. Ale stále potřeboval 8x GPU B200 (~$250k) k účasti. To byl důkaz konceptu pro dobře kapitalizované provozovatele... Prozatím Decentralizovaný trénink by jednou mohl dosáhnout téměř úrovně Frontier modelů, ale pouze pokud by hardwarová bariéra výrazně klesla.