Autonomní správa paměti u LLM agentů LLM agenti mají potíže s úkoly s dlouhým horizontem kvůli přebytečnosti kontextu. S rostoucí historií interakcí explodují výpočetní náklady, latence roste a uvažování se zhoršuje kvůli rozptýlení nerelevantními minulými chybami. Standardní přístup je pouze s připojením: každá myšlenka, výzva k nástroji a odpověď se trvale hromadí. To funguje u krátkých úkolů, ale zaručuje neúspěch u složitého průzkumu. Tento výzkum představuje Focus, architekturu zaměřenou na agenta inspirovanou slizovitou plísní (Physarum polycephalum). Biologický poznatek: organismy si neuchovávají dokonalé záznamy o každém pohybu bludištěm. Zachovávají si naučenou mapu. Focus dává agentům dva nové primitivní schopnosti: start_focus a complete_focus. Agent autonomně rozhoduje, kdy konsoliduje poznatky do trvalého bloku znalostí, a aktivně ořezává surovou historii interakcí. Žádné vnější časovače ani heuristiky nutící kompresi. Uvádí, co zkoumáte, zkoumá pomocí standardních nástrojů a poté konsoliduje shrnutím, co bylo zkoušeno, co bylo zjištěno a jaký byl výsledek. Systém to přidá k trvalému bloku znalostí a smaže vše mezi kontrolním bodem a aktuálním krokem. To monotónně převádí rostoucí kontext do zubatého vzoru: růst během průzkumu, kolaps při konsolidaci. Hodnocení SWE-bench Lite s Claudem Haiku 4.5 ukazuje, že Focus dosahuje snížení tokenů o 22,7 % (14,9 milionu na 11,5 milionu tokenů) při zachování stejné přesnosti (60 % pro základní a Focus). Jednotlivé případy ukázaly úspory až do 57 %. Agresivní pobídky jsou důležité. Pasivní podněty přinesly úspory pouze 6 %. Explicitní instrukce pro kompresi každých 10–15 volání nástrojů s připomínkami systému zvýšily komprese z 2,0 na 6,0 na úkol. Schopné modely mohou autonomně regulovat svůj kontext, pokud mají k dispozici vhodné nástroje a podněty, čímž otevírají cesty pro nákladově uvědomělé agentické systémy, aniž by obětovaly výkon úkolů. Článek: Naučte se vytvářet efektivní AI agenty v naší akademii: