Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ein Papier, das besondere Aufmerksamkeit verdient.
Es präsentiert das Lossless Context Management (LCM), das die Art und Weise, wie Agenten mit langen Kontexten umgehen, neu definiert.
Es übertrifft Claude Code bei Aufgaben mit langen Kontexten.
Rekursive Sprachmodelle geben dem Modell die volle Autonomie, um eigene Gedächtnisskripte zu schreiben. LCM nimmt diese Macht zurück und übergibt sie an eine deterministische Engine, die alte Nachrichten in ein hierarchisches DAG komprimiert, während sie verlustfreie Zeiger auf jede Originalnachricht beibehält. In der Theorie weniger ausdrucksstark, in der Praxis jedoch viel zuverlässiger.
Die Ergebnisse:
Ihr Agent (Volt, auf Opus 4.6) schlägt Claude Code bei *jeder* Kontextlänge von 32K bis 1M Tokens im OOLONG-Benchmark. +29,2 Punkte durchschnittliche Verbesserung im Vergleich zu Claude Codes +24,7. Der Abstand vergrößert sich bei längeren Kontexten.
Die Implikation ist eine, die wir aus der Geschichte der Softwaretechnik immer wieder lernen: Wie Sie verwalten, was das Modell sieht, könnte wichtiger sein, als dem Modell Werkzeuge zu geben, um es selbst zu verwalten. Jedes Agentenframework, das mit "lass das Modell es herausfinden"-Gedächtnisstrategien ausgeliefert wird, könnte auf der völlig falschen Abstraktion basieren.
Papier:
Lernen Sie, effektive KI-Agenten in unserer Akademie zu bauen:

Top
Ranking
Favoriten
