Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Sta accadendo: ricerca autonoma di AI da parte di agenti AI su nanochat!
629 righe di codice per addestrare GPT-2. Un file markdown che definisce l'agenda di ricerca. Questo è tutto il laboratorio di ricerca.
I ricercatori di AI potrebbero essere i primi a essere sostituiti dall'AI. L'esito più divertente è il più probabile.


8 mar, 03:53
Ho impacchettato il progetto "autoresearch" in un nuovo repository minimale e autonomo se le persone vogliono provare durante il fine settimana. È fondamentalmente il nucleo di addestramento LLM di nanochat ridotto a una versione a singolo GPU, un file di circa 630 righe di codice, poi:
- l'umano itera sul prompt (.md)
- l'agente AI itera sul codice di addestramento (.py)
L'obiettivo è ingegnerizzare i tuoi agenti per fare il progresso di ricerca più veloce indefinitamente e senza alcun tuo coinvolgimento. Nell'immagine, ogni punto è un'esecuzione completa di addestramento LLM che dura esattamente 5 minuti. L'agente lavora in un ciclo autonomo su un ramo di funzionalità git e accumula commit git allo script di addestramento mentre trova impostazioni migliori (con una perdita di validazione più bassa alla fine) dell'architettura della rete neurale, dell'ottimizzatore, di tutti gli iperparametri, ecc. Puoi immaginare di confrontare il progresso della ricerca di diversi prompt, diversi agenti, ecc.
Parte codice, parte fantascienza e un pizzico di psicosi :)

Evochare GPT-5.4 xhigh e Claude Opus 4.6, dando loro 16 GPU, e lasciandoli fare ricerca autonoma in un sabato soleggiato è estremamente soddisfacente.
Inoltre, è un buon modo per valutare quale modello sia il miglior ricercatore. Potrei pubblicare risultati interessanti domani.
217
Principali
Ranking
Preferiti
