Model pre-treningu Frontier jest coraz bardziej skoncentrowany Obliczenia wymagane do treningu na najwyższym poziomie podwajają się co 6 do 10 miesięcy, wykluczając z rynku wszystkich poza dużymi laboratoriami: OpenAI, Google, Meta i garstką innych z budżetami na GPU w wysokości miliardów dolarów Templar staje się jednym z najbardziej wiarygodnych wyzwań dla tej koncentracji i właśnie zakończyli największy zdecentralizowany bieg pre-treningowy, KIEDYKOLWIEK MUSISZ zwrócić uwagę na otwarte, zdecentralizowane alternatywy @NousResearch również wydało swojego Agenta Hermes, który jest nazywany „następnym OpenClaw” Zdecentralizowane trenowanie modeli stanie się większe, niż myślisz; teraz jest czas, aby się edukować Opublikowaliśmy raport @KhalaResearch na temat Bittensor w zeszłym miesiącu, który obejmował Templar (podlinkuję poniżej)