Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
andrej karpathy ha lasciato il suo laptop acceso per due giorni.. è tornato e il suo agente aveva eseguito ~700 esperimenti e trovato ~20 miglioramenti che gli erano sfuggiti
era puntato su nanochat, un piccolo modello in stile gpt che aveva già ottimizzato a mano.. karpathy dice che l'agente ha ridotto il “tempo per gpt 2” di ~11%, e i guadagni si sono trasferiti dai modelli piccoli a quelli più grandi
il meccanismo è in realtà piuttosto noioso: sessioni di allenamento fisse di 5 minuti, punteggio contro un metrica, mantenere ciò che migliora, ripristinare ciò che non migliora, ciclo.. ~12 esperimenti/ora significa che ti svegli con ~100 tentativi che non hai eseguito personalmente
Tobi Lütke ha provato la stessa idea sul codice sorgente liquid di shopify e ha riportato ~53% più veloce con il 61% in meno di allocazioni di oggetti (con una nota che potrebbe essere overfit).. ma le idee erano comunque utili - anche in un progetto di 20 anni, pesantemente ottimizzato
abbiamo appena automatizzato la parte più lenta dell'ingegneria e della ricerca.. iterazione incessante
tu scrivi il file .md.. l'agente scrive il file .py 👀
Principali
Ranking
Preferiti
