熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
自主記憶管理於 LLM 代理人
LLM 代理人在長期任務中因為上下文膨脹而掙扎。
隨著互動歷史的增長,計算成本激增,延遲增加,推理因無關的過去錯誤而受到干擾。
標準方法是僅附加:每個想法、工具調用和回應都會永久累積。這對於短期任務有效,但對於複雜的探索則保證失敗。
本研究介紹了 Focus,一種受黏菌(Physarum polycephalum)啟發的以代理人為中心的架構。生物學的見解:生物體不會保留每次通過迷宮的每一個動作的完美記錄。它們保留的是學習到的地圖。
Focus 為代理人提供了兩個新的原語:start_focus 和 complete_focus。代理人自主決定何時將學習整合到持久的知識區塊中,並主動修剪原始的互動歷史。沒有外部計時器或啟發式方法強制壓縮。
它聲明你正在調查的內容,使用標準工具進行探索,然後通過總結所嘗試的內容、所學到的知識和結果來整合。系統將這些附加到持久的知識區塊中,並刪除檢查點與當前步驟之間的所有內容。
這將單調增加的上下文轉換為鋸齒形模式:在探索期間增長,在整合期間崩潰。
在 SWE-bench Lite 上使用 Claude Haiku 4.5 的評估顯示,Focus 實現了 22.7% 的標記減少(從 14.9M 減少到 11.5M 標記),同時保持相同的準確性(基準和 Focus 均為 60%)。個別實例顯示節省高達 57%。
積極的提示很重要。被動提示僅產生 6% 的節省。明確指示每 10-15 次工具調用進行壓縮,並提供系統提醒,將每個任務的壓縮次數從 2.0 增加到 6.0。
有能力的模型在給予適當的工具和提示時可以自主調節其上下文,為不犧牲任務性能的成本意識代理系統開辟了道路。
論文:
在我們的學院學習如何建立有效的 AI 代理人:

熱門
排行
收藏
