Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Wir haben gerade 10 GPUs bereitgestellt, um @karpathy's Auto-Forschung auszuführen:
Wir befinden uns in einer Ära, in der niche-spezifische Agenten hyper Trainer und hyper genau durch eine unendliche Schleife von Experimenten werden können.
Wenn du daran interessiert bist, mit Auto-Forschung zu bauen, schreib uns eine DM, wir statten dich mit 100 $ Cloud-GPU-Guthaben aus.
Hier sind nur einige Agentennarrative, die jetzt um das 100-fache in der Qualität verbessert werden können:
+ Agentensimulationen: ganze Regierungen, Unternehmen und Entitäten aller Art betreiben
+ Einzelziel-Agenten: sage einem Agenten, dass seine einzige Mission darin besteht, ein einzelnes Ziel, ein sozioökonomisches Problem, zu lösen; sieh dir an, welche Ergebnisse er erzielt
+ MEV-Bot, der seine eigene Strategie erforscht, während du schläfst
+ Token-Launch-Scanner, der lernt, was pumpt und was nicht
+ LP-Vault, der autonom optimale Bereiche auf Uni V4 & Meteora findet
+ Ertragsagent, der Routen über 50 DeFi-Protokolle entdeckt
Dieser Tweet bedeutet eine neue Ära; wir werden Talente unterstützen, die bereit sind, dieser Ära beizutreten.

8. März, 03:53
Ich habe das Projekt "autoresearch" in ein neues, eigenständiges Minimal-Repo verpackt, falls die Leute am Wochenende damit spielen möchten. Es ist im Grunde der Kern des LLM-Trainings von nanochat, der auf eine Version mit einer GPU und einer Datei von ~630 Zeilen Code reduziert wurde, dann:
- der Mensch arbeitet am Prompt (.md)
- der KI-Agent arbeitet am Trainingscode (.py)
Das Ziel ist es, Ihre Agenten so zu konstruieren, dass sie unendlich schnell Fortschritte in der Forschung machen, ohne dass Sie selbst involviert sind. Auf dem Bild ist jeder Punkt ein vollständiger LLM-Trainingslauf, der genau 5 Minuten dauert. Der Agent arbeitet in einer autonomen Schleife auf einem Git-Feature-Branch und sammelt Git-Commits zum Trainingsskript, während er bessere Einstellungen (mit niedrigerem Validierungsverlust am Ende) der Architektur des neuronalen Netzwerks, des Optimierers, aller Hyperparameter usw. findet. Sie können sich vorstellen, den Forschungsfortschritt verschiedener Prompts, verschiedener Agenten usw. zu vergleichen.
Teil Code, Teil Sci-Fi und eine Prise Psychose :)

. @BNNBags karpathy x Bags x unsichtbar.
938
Top
Ranking
Favoriten
