Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Jeder fragt sich, warum KI-Agenten auseinanderfallen, sobald man über die Demo hinausgeht.
Dieses Papier von Google DeepMind, Meta, Amazon und Yale gibt leise die unbequeme Antwort.
Die heutigen LLMs denken nicht nach. Sie reagieren.
Sie erzeugen fließenden Text Token für Token, aber sie planen, reflektieren oder entscheiden nicht, wann sie anhalten und umdenken sollen. Sie klingen intelligent, weil Sprache ihre Stärke ist, nicht weil Urteilsvermögen es ist.
Das Papier argumentiert, dass echter Fortschritt darin besteht, LLMs in agentische Denker zu verwandeln. Systeme, die Ziele setzen, diese in Unterziele aufteilen, Aktionen wählen, Ergebnisse bewerten und die Strategie während des Ablaufs ändern können.
Sie formalisierten das Denken als Schleife, nicht als Eingabeaufforderung:
beobachten → planen → handeln → reflektieren → Zustand aktualisieren → wiederholen
Das ist der entscheidende Wandel. Anstatt einer langen Kette von Gedanken, hält das Modell einen internen Aufgabenstatus aufrecht. Es entscheidet, worüber es als Nächstes nachdenken soll, nicht nur, wie es den Satz beenden soll.
Deshalb stagniert längeres CoT. Man erhält mehr Wörter, nicht bessere Entscheidungen.
Eine der schärfsten Einsichten: Das Denken bricht zusammen, wenn Kontrolle und Denken vermischt werden. Wenn eine einzige Eingabeaufforderung versucht, zu planen, auszuführen, zu kritisieren und abzuschließen, summieren sich die Fehler stillschweigend.
Agentische Systeme trennen Rollen.
Planung ist explizit.
Ausführung ist begrenzt.
Reflexion ist verzögert und strukturiert.
Das Papier zeigt dramatische Fortschritte, nur indem es den Modellen gibt:
• explizite Zwischenziele
• Kontrollpunkte zur Selbstevaluation
• Erlaubnis, schlechte Wege abzubrechen...

Top
Ranking
Favoriten
