templar hat gerade ein Modell mit 72 Milliarden Parametern über das Commodity-Internet mit über 70 Teilnehmern trainiert. das ist der größte vollständig offene dezentrale Vortrainingseinsatz aller Zeiten. ihr sparsamer loco-Optimizer hat Daten um das 146-fache komprimiert, was es Haushaltsverbindungen ermöglicht hat, beizutragen. durchbruch für @tplr_ai ist es, untrusted strangers zu ermöglichen, ein Modell ohne Betrug zu trainieren, dank ihres Gauntlet-Validierungssystems. aber es benötigte immer noch 8x b200 gpus (~250.000 $), um teilzunehmen. dies war ein Proof-of-Concept für gut kapitalisierte Betreiber... vorerst. dezentrales Training könnte eines Tages nahe an Grenzmodellen herankommen, aber nur, wenn die Hardwarebarriere erheblich sinkt.