Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Der Atari 2600 war während meiner Doktorandenzeit der goldene Maßstab für KI-Agenten. Ein einzelnes neuronales Netzwerk, das in der Lage ist, über 50 Atari-Spiele zu spielen, würde als bahnbrechend angesehen werden. Die Modelle hatten Schwierigkeiten, den 84x84 Graustufen-Pixelbildschirm auf einige Tasten abzubilden.
Dann haben OpenAI Five (Dota) und DeepMinds AlphaStar das Spiel auf ein neues Level gehoben und die besten Champions der Welt im Esport besiegt. Doch sie waren auf eine einzige virtuelle Umgebung gleichzeitig überangepasst. Jede Veränderung würde das Modell sofort zum Scheitern bringen.
Menschen sind außergewöhnlich gut darin, sich an sehr unterschiedliche Physik und Regeln anzupassen - etwas, das unseren fortschrittlichsten LLMs im Billionenmaßstab weiterhin entgeht. Man kann sich die 1000 Spiele als 1000 Simulationen vorstellen. Je mehr virtuelle Welten ein Agent adaptieren kann, desto besser entwickelt er verkörpertes Denken, Wahrnehmung und motorische Koordination. All dies sind entscheidende Teile im großen Puzzle der Robotik.
Durch die Open-Source-Veröffentlichung des NitroGen-Modells und der Gym-API verfolgen wir dasselbe Ziel wie AlphaGo, AlphaStar, OpenAI Five und kürzlich Google SIMA: nicht den Spaß an diesen Spielen zu nehmen, sondern die Grenzen der modernen KI aufzuzeigen, eine solide Basis zu bieten und einen neuen Maßstab - "Atari 2.0" - zu schaffen, um den Fortschritt entsprechend zu messen.
Top
Ranking
Favoriten
