andrej karpathy ha lasciato il suo laptop acceso per due giorni.. è tornato e il suo agente aveva eseguito ~700 esperimenti e trovato ~20 miglioramenti che gli erano sfuggiti era puntato su nanochat, un piccolo modello in stile gpt che aveva già ottimizzato a mano.. karpathy dice che l'agente ha ridotto il “tempo per gpt 2” di ~11%, e i guadagni si sono trasferiti dai modelli piccoli a quelli più grandi il meccanismo è in realtà piuttosto noioso: sessioni di allenamento fisse di 5 minuti, punteggio contro un metrica, mantenere ciò che migliora, ripristinare ciò che non migliora, ciclo.. ~12 esperimenti/ora significa che ti svegli con ~100 tentativi che non hai eseguito personalmente Tobi Lütke ha provato la stessa idea sul codice sorgente liquid di shopify e ha riportato ~53% più veloce con il 61% in meno di allocazioni di oggetti (con una nota che potrebbe essere overfit).. ma le idee erano comunque utili - anche in un progetto di 20 anni, pesantemente ottimizzato abbiamo appena automatizzato la parte più lenta dell'ingegneria e della ricerca.. iterazione incessante tu scrivi il file .md.. l'agente scrive il file .py 👀