Předtrénování Frontier modelů je stále více koncentrované Výpočetní kapacita potřebná pro špičkové školení se zdvojnásobuje každých 6 až 10 měsíců, což znamená vyřadit kohokoli kromě hlavních laboratoří: OpenAI, Google, Meta a několika dalších s miliardovými GPU rozpočty Templar se stává jednou z nejvěrohodnějších výzev této koncentrace a právě dokončili největší decentralizovaný předtréninkový běh vůbec MUSÍTE věnovat pozornost open source decentralizovaným alternativám @NousResearch také vydal Hermes Agent, který je označován jako "další OpenClaw" Decentralizovaný trénink modelů bude větší, než si myslíte; Teď je čas se vzdělávat. Minulý měsíc jsme publikovali @KhalaResearch reportáž o Bittensoru, která se věnovala Templaru (odkaz přidám níže)