templar heeft net een model met 72 miljard parameters getraind via het gewone internet met meer dan 70 deelnemers. dit is de grootste volledig open gedecentraliseerde pre-trainingsinspanning ooit. hun sparse loco optimizer heeft gegevens 146x gecomprimeerd, waardoor huishoudverbindingen konden bijdragen. de echte doorbraak voor @tplr_ai is het krijgen van onbetrouwbare vreemden om een model te trainen zonder te valsspelen, dankzij hun gauntlet-validatiesysteem. maar het had nog steeds 8x b200 gpu's (~$250k) nodig om deel te nemen. dit was een proof-of-concept voor goed gefinancierde operators... voor nu gedecentraliseerde training zou op een dag dicht bij grensmodellen kunnen komen, maar alleen als de hardwarebarrière aanzienlijk daalt.