Агенты LLM терпят неудачу при выполнении длительных задач. Здесь действительно важна инженерия контекста. Агенты могут рассуждать и использовать инструменты, но продолжительные операции вызывают неограниченный рост контекста и накопление ошибок. Обычные решения, такие как сжатие контекста или дополненное извлечение подсказок, заставляют делать компромиссы между достоверностью информации и стабильностью рассуждений. Это новое исследование представляет InfiAgent, структуру, которая поддерживает строго ограниченный контекст рассуждений агента, независимо от того, как долго выполняется задача. Идея заключается в том, чтобы внешне сохранить постоянное состояние в абстракции, ориентированной на файлы. Вместо того чтобы запихивать все в контекст, агент поддерживает рабочее пространство файлов, которые сохраняются на протяжении шагов. На каждом этапе принятия решения он восстанавливает контекст из снимка состояния рабочего пространства плюс фиксированное окно недавних действий. Это разъединяет продолжительность задачи и размер контекста. Независимо от того, занимает ли задача 10 шагов или 1000, контекст рассуждений остается одинаковой длины. Это хорошо, потому что подход не требует тонкой настройки под конкретную задачу. Агент работает одинаково, независимо от области. Эксперименты на DeepResearch и задаче обзора литературы из 80 статей показывают, что InfiAgent с 20B открытой моделью конкурентоспособен с более крупными проприетарными системами. Он поддерживает значительно более высокое покрытие на длинных горизонтах, чем ориентированные на контекст базовые линии. Обзор литературы из 80 статей особенно показателен. Это именно тот вид продолжительной задачи, где традиционные агенты накапливают ошибки и теряют след того, что они сделали. Внешняя сохранность состояния InfiAgent на основе файлов предотвращает это ухудшение. Статья: Научитесь создавать эффективные AI-агенты в нашей академии: