"Рекурсивные языковые модели" Потенциально важное направление для LLM в 2026 году от исследователей MIT В их подходе подсказка не "выполняется" напрямую, вместо этого она хранится как переменная во внешнем Python REPL, и языковая модель пишет код для проверки/разделения/декомпозиции этой длинной строки, наблюдает за выводами выполнения, а затем создает подзадачи, где рекурсивно вызывает LLM только на соответствующих фрагментах. Сшивание результата происходит, когда рекурсивный процесс завершается. Таким образом, она может решать задачи на 10M+ токенов с гораздо меньшим "разрушением контекста" и часто с более низкими затратами, чем суммирование/RAG, превращая масштабирование длинного контекста в алгоритм времени вывода, а не просто в более широкое окно контекста.