Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ich habe gerade MiroThinker 1.5 etwas genauer unter die Lupe genommen. Ihre Agenten-Komprimierungsmethode ist etwas seltsam, aber wenn man sie versteht, ist sie tatsächlich nützlich.
Der Kern löst das Problem, wie man 400 Mal Tool Use in einen Kontext von 256K unterbringt.
Sie haben eine äußerst gewagte Operation durchgeführt: Sie haben die Observation (Werkzeugrückgabeergebnisse) aus der ReAct-Geschichte von think-action-observation physisch maskiert.
Außer den letzten K Runden, in denen der Originaltext beibehalten wird, wurden die vorherigen Hunderte von Tool Resultaten alle durch den Satz "Tool result is omitted to save tokens" ersetzt. Aber alle <thought> wurden vollständig beibehalten.
Hier gibt es einen sehr kontraintuitiven Punkt: Dieser Agent selbst führt eine tiefgehende Forschung durch, und er behält nur die letzten K Runden, also 5 Runden des Originaltexts, während die vorherigen nicht mehr vorhanden sind. Wie kann er da noch Fragen beantworten?
Das bringt eine sehr subtile, aber entscheidende Voraussetzung mit sich: Solange der Gedanke (Thought) dicht genug ist, nähert er sich tatsächlich unendlich dem Summary.
Jede Generierung eines Gedankens ist im Wesentlichen ein Informationsschnitt des Modells über die aktuelle Observation. Als T1 erzeugt wurde, hatte es bereits die Schlüsseldaten aus O1 „aufgesogen“.
Obwohl O1 durch einen Platzhalter ersetzt wurde, bleibt T1 bestehen. T1 wird zu einem „Informationskompressionspaket“ von O1. Es ist nicht notwendig, einen zusätzlichen Summary Agent hinzuzufügen; diese vollständige Gedankenkette ist selbst ein ständig aktualisiertes, hochpräzises „dynamisches Summary“.

Top
Ranking
Favoriten
