Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Il genio di @karpathy sta nel saper distillare concetti estremamente complessi e renderli semplici da comprendere e implementare su piccola scala.
Tutto ciò che ci è voluto è stato Claude Code e $10 su @runpod per avviare un singolo H100, e avevo un ricercatore di ML di livello mondiale che lavorava in modalità automatica.
Sto prendendo il concetto generale di autoresearch e applicandolo a un pipeline di inferenza su cui ho lavorato (fortunatamente non è necessaria una GPU). Ora è tutto così divertente.


8 mar, 03:53
Ho impacchettato il progetto "autoresearch" in un nuovo repository minimale e autonomo se le persone vogliono provare durante il fine settimana. È fondamentalmente il nucleo di addestramento LLM di nanochat ridotto a una versione a singolo GPU, un file di circa 630 righe di codice, poi:
- l'umano itera sul prompt (.md)
- l'agente AI itera sul codice di addestramento (.py)
L'obiettivo è ingegnerizzare i tuoi agenti per fare il progresso di ricerca più veloce indefinitamente e senza alcun tuo coinvolgimento. Nell'immagine, ogni punto è un'esecuzione completa di addestramento LLM che dura esattamente 5 minuti. L'agente lavora in un ciclo autonomo su un ramo di funzionalità git e accumula commit git allo script di addestramento mentre trova impostazioni migliori (con una perdita di validazione più bassa alla fine) dell'architettura della rete neurale, dell'ottimizzatore, di tutti gli iperparametri, ecc. Puoi immaginare di confrontare il progresso della ricerca di diversi prompt, diversi agenti, ecc.
Parte codice, parte fantascienza e un pizzico di psicosi :)

@karpathy @runpod hai bisogno di amici come @ryaneshea per rimuovere le tue (deboli) scuse per non fare semplicemente le cose

472
Principali
Ranking
Preferiti
