Vi har nettopp klargjort 10 GPU-er til å kjøre @karpathy sin auto-research: Vi lever i en tid hvor nisjespesifikte agenter kan bli hyper-trenere, hyperpresise gjennom en uendelig løkke av eksperimentering. Hvis du er interessert i å bygge med autoresearch, send oss en DM, så får du satt opp med 100 dollar i Cloud GPU-kreditter. Her er bare noen agentfortellinger som nå kan bli 100 ganger bedre i kvalitet: + agentsimuleringer: kjør hele regjeringer, selskaper og enheter av alle slag + Enkeltmålsagenter: Fortell en agent at dens eneste oppdrag er å løse ett enkelt mål, et sosioøkonomisk problem; se hva utfallet er + MEV-bot som forsker på sin egen strategi mens du sover + token-lanseringsskanner som lærer hva som pumper og hva som ikke gjør det + LP-hvelv som autonomt finner optimale rekkevidder på uni v4 og meteora + yield-agent som oppdager ruter på tvers av 50 Defi-protokoller Denne tweeten markerer en ny æra; Vi vil støtte talenter som er villige til å bli med i denne æraen.
Andrej Karpathy
Andrej Karpathy8. mars, 03:53
Jeg pakket sammen "autoresearch"-prosjektet i et nytt, selvstendig minimalt repo hvis folk vil spille i helgen. Det er i bunn og grunn nanochat LLM-treningskjerne strippet ned til en enkelt-GPU, én fil-versjon med ~630 linjer kode, og så: - mennesket itererer på prompten (.md) - AI-agenten itererer på treningskoden (.py) Målet er å få agentene dine til å oppnå raskest mulig forskningsfremgang på ubestemt tid og uten egen involvering. På bildet er hver prikk en komplett LLM-trening som varer nøyaktig 5 minutter. Agenten jobber i en autonom sløyfe på en git-funksjonsgren og akkumulerer git-commits til treningsskriptet etter hvert som den finner bedre innstillinger (med lavere valideringstap mot slutten) i den nevrale nettverksarkitekturen, optimalisatoren, alle hyperparameterne osv. Du kan tenke deg å sammenligne forskningsfremdriften til ulike prompts, forskjellige agenter osv. Delvis kode, delvis sci-fi, og en klype psykose :)
. @BNNBags karpati x Poser x usynlig.
915