Nous venons de provisionner 10 GPU pour exécuter la recherche automatique de @karpathy : Nous sommes à une époque où des agents spécifiques à un créneau peuvent devenir des hyper formateurs, hyper précis grâce à une boucle infinie d'expérimentation. Si vous êtes intéressé par la construction avec autoresearch, envoyez-nous un message, nous vous fournirons 100 $ de crédits GPU Cloud. Voici quelques récits d'agents qui peuvent désormais améliorer leur qualité de 100x : + simulations d'agents : gérer des gouvernements, des entreprises et des entités de toutes sortes + agents à objectif unique : dites à un agent que sa seule mission est de résoudre un objectif unique, un problème socio-économique ; voyez quels en sont les résultats + bot mev qui recherche sa propre stratégie pendant que vous dormez + scanner de lancement de token qui apprend ce qui fait monter et ce qui ne le fait pas + coffre lp qui trouve de manière autonome des plages optimales sur uni v4 & meteora + agent de rendement qui découvre des routes à travers 50 protocoles defi Ce tweet signifie une nouvelle ère ; nous soutiendrons les talents prêts à rejoindre cette ère.
Andrej Karpathy
Andrej Karpathy8 mars, 03:53
J'ai emballé le projet "autoresearch" dans un nouveau dépôt minimal autonome si des gens souhaitent jouer pendant le week-end. C'est essentiellement le cœur de l'entraînement LLM de nanochat réduit à une version à un seul GPU, un fichier de ~630 lignes de code, puis : - l'humain itère sur l'invite (.md) - l'agent IA itère sur le code d'entraînement (.py) L'objectif est de concevoir vos agents pour qu'ils réalisent les progrès de recherche les plus rapides indéfiniment et sans aucune de votre propre implication. Sur l'image, chaque point est un run complet d'entraînement LLM qui dure exactement 5 minutes. L'agent fonctionne dans une boucle autonome sur une branche de fonctionnalité git et accumule des commits git au script d'entraînement à mesure qu'il trouve de meilleurs réglages (avec une perte de validation plus faible à la fin) de l'architecture du réseau de neurones, de l'optimiseur, de tous les hyperparamètres, etc. Vous pouvez imaginer comparer les progrès de recherche de différentes invites, différents agents, etc. Partie code, partie science-fiction, et une pincée de psychose :)
. @BNNBags karpathy x Bags x invisible.
928