Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
andrej karpathy a laissé son ordinateur portable allumé pendant deux jours.. il est revenu et son agent avait exécuté ~700 expériences et trouvé ~20 améliorations qu'il avait manquées
il était dirigé vers nanochat, un petit modèle de style gpt qu'il avait déjà ajusté manuellement.. karpathy dit que l'agent a réduit le "temps pour gpt 2" d'environ 11 %, et les gains se sont transférés des petits modèles aux plus grands
le mécanisme est en fait assez ennuyeux : des sessions d'entraînement fixes de 5 minutes, évaluation selon un critère, garder ce qui améliore, revenir en arrière sur ce qui ne fonctionne pas, boucle.. ~12 expériences/heure signifie que vous vous réveillez avec ~100 tentatives que vous n'avez pas personnellement exécutées
Tobi Lütke a essayé la même idée sur la base de code liquid de shopify et a rapporté une vitesse ~53 % plus rapide avec 61 % d'allocations d'objets en moins (avec un avertissement que cela pourrait être surajusté).. mais les idées étaient toujours utiles - même dans un projet de 20 ans, fortement optimisé
nous venons d'automatiser la partie la plus lente de l'ingénierie et de la recherche.. itération incessante
vous écrivez le fichier .md.. l'agent écrit le .py 👀
Meilleurs
Classement
Favoris
