Templar har nettopp trent en modell med 72 milliarder parametere over vareinternett med 70+ deltakere. Dette er den største helt åpne desentraliserte fortreningsinnsatsen noensinne. Deres sparsomme lokomotivoptimalisator komprimerte data 146x, noe som gjorde det mulig for husholdningstilkoblinger å bidra. Det virkelige gjennombruddet for @tplr_ai er å få upålitelige fremmede til å trene en modell uten juks, takket være deres Gauntlet-valideringssystem. Men det trengtes fortsatt 8x B200 GPU-er (~250 000 dollar) for å delta. dette var et konseptbevis for godt kapitaliserte operatører... Foreløpig Desentralisert opplæring kan en dag nå nær grensemodeller, men bare hvis maskinvarebarrieren faller betydelig.