Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Autonome Speicherverwaltung in LLM-Agenten
LLM-Agenten haben Schwierigkeiten mit langfristigen Aufgaben aufgrund von Kontextüberladung.
Mit dem Wachstum der Interaktionshistorie explodieren die Rechenkosten, die Latenz steigt und das Denken wird durch Ablenkungen durch irrelevante frühere Fehler beeinträchtigt.
Der Standardansatz ist append-only: Jeder Gedanke, jeder Werkzeugaufruf und jede Antwort wird dauerhaft angesammelt. Dies funktioniert für kurze Aufgaben, garantiert jedoch das Scheitern bei komplexen Erkundungen.
Diese Forschung führt Focus ein, eine agentenzentrierte Architektur, die von Schleimpilzen (Physarum polycephalum) inspiriert ist. Die biologische Einsicht: Organismen behalten keine perfekten Aufzeichnungen über jede Bewegung durch ein Labyrinth. Sie behalten die erlernte Karte.
Focus gibt den Agenten zwei neue Primitiven: start_focus und complete_focus. Der Agent entscheidet autonom, wann er das Gelernte in einen dauerhaften Wissensblock konsolidiert und schneidet aktiv die rohe Interaktionshistorie zurück. Keine externen Timer oder Heuristiken, die eine Kompression erzwingen.
Er erklärt, was Sie untersuchen, erkundet mit Standardwerkzeugen und konsolidiert dann, indem er zusammenfasst, was versucht wurde, was gelernt wurde und das Ergebnis. Das System fügt dies einem dauerhaften Wissensblock hinzu und löscht alles zwischen dem Kontrollpunkt und dem aktuellen Schritt.
Dies wandelt monoton wachsenden Kontext in ein Sägezahn-Muster um: Wachstum während der Erkundung, Zusammenbruch während der Konsolidierung.
Die Bewertung auf SWE-bench Lite mit Claude Haiku 4.5 zeigt, dass Focus eine Reduzierung der Token um 22,7 % erreicht (von 14,9 Millionen auf 11,5 Millionen Token), während die Genauigkeit identisch bleibt (60 % für sowohl Baseline als auch Focus). Einzelne Instanzen zeigten Einsparungen von bis zu 57 %.
Aggressives Prompting ist wichtig. Passives Prompting ergab nur 6 % Einsparungen. Explizite Anweisungen zur Kompression nach jeweils 10-15 Werkzeugaufrufen, mit Systemerinnerungen, erhöhten die Kompressionen von 2,0 auf 6,0 pro Aufgabe.
Fähige Modelle können ihren Kontext autonom selbst regulieren, wenn sie geeignete Werkzeuge und Aufforderungen erhalten, was Wege für kostenbewusste agentische Systeme eröffnet, ohne die Aufgabenleistung zu opfern.
Papier:
Lernen Sie, effektive KI-Agenten in unserer Akademie zu bauen:

Top
Ranking
Favoriten
