Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Det briljanta med @karpathy är att kunna destillera mycket komplexa koncept och göra dem enkla att förstå och implementera i liten skala.
Allt som krävdes var Claude Code och 10 dollar på @runpod för att starta en enda H100, och jag hade en världsklassforskare inom ML som arbetade på autopilot.
Jag tar det allmänna konceptet autoresearch och applicerar det på en inferenspipeline jag har arbetat med (tack och lov behövs ingen GPU). Allt är så roligt nu.


8 mars 03:53
Jag paketerade "autoresearch"-projektet i ett nytt självständigt minimalistiskt repo om folk vill spela under helgen. Det är i princip nanochat LLM-träningskära nedskalad till en enda GPU, en filversion av ~630 rader kod, sedan:
- människan itererar på prompten (.md)
- AI-agenten itererar på träningskoden (.py)
Målet är att styra dina agenter så att de gör snabbast forskningsframsteg obegränsat och utan egen inblandning. På bilden är varje prick en komplett LLM-träningsrunda som varar exakt 5 minuter. Agenten arbetar i en autonom loop på en git-funktionsgren och samlar på sig git-commits till träningsskriptet när den hittar bättre inställningar (med lägre valideringsförlust i slutet) i neurala nätverksarkitekturen, optimeraren, alla hyperparametrar osv. Du kan föreställa dig att jämföra forskningsframstegen för olika prompts, olika agenter, etc.
Delvis kod, delvis sci-fi och en nypa psykos :)

@karpathy @runpod behöver vänner som @ryaneshea för att ta bort dina (svaga) ursäkter för att inte bara göra saker

512
Topp
Rankning
Favoriter
