LLM agenti se rozpadají při dlouhých úkolech. Tady opravdu záleží na kontextovém inženýrství. Agenti mohou uvažovat a používat nástroje, ale prodloužené operace způsobují neomezený růst kontextu a hromadění chyb. Běžné řešení jako komprese kontextu nebo vyhledáváním podporované prompting nutí vyvažovat kompromisy mezi věrností informací a stabilitou uvažování. Tento nový výzkum představuje InfiAgent, framework, který udržuje kontext uvažování agenta přísně omezený bez ohledu na délku trvání úkolu. Myšlenka je externalizovat perzistentní stav do souborově orientované abstrakce. Místo toho, aby vše vměstnával do kontextu, agent udržuje pracovní prostor souborů, které přetrvávají napříč kroky. V každém rozhodovacím bodě rekonstruuje kontext ze snapshotu stavu pracovního prostoru plus pevného okna nedávných akcí. Tím se délka úkolu odděluje od velikosti kontextu. Ať už úkol trvá 10 kroků nebo 1000, kontext uvažování zůstává stejný. To je příjemné, protože přístup nevyžaduje žádné doladění specifické pro konkrétní úkol. Agent funguje stejným způsobem bez ohledu na doménu. Experimenty na DeepResearch a úkol s 80 články na literární přehled ukazují, že InfiAgent s open-source modelem 20B je konkurenceschopný vůči větším proprietárním systémům. Udržuje výrazně vyšší dlouhodobé pokrytí než kontextově orientované základní hodnoty. Literaturní přehled o 80 článcích je obzvlášť výmluvný. To je přesně ten typ dlouhodobého úkolu, kdy tradiční agenti hromadí chyby a ztrácejí přehled o tom, co udělali. Externalizace stavů založená na souborech v InfiAgentu tomuto zhoršení zabrání. Článek: Naučte se vytvářet efektivní AI agenty v naší akademii: