«Рекурсивні мовні моделі» Потенційно великий напрямок для LLM у 2026 році від дослідників MIT У їхньому підході запит не «виконується» безпосередньо, а зберігається як змінна у зовнішньому Python REPL, і мовна модель пише код для інспекції/слайсингу/розкладання цього довгого рядка, спостерігає за результатами виконання і потім створює підзавдання, де рекурсивно викликає LLM лише на відповідних фрагментах. Зшивання результату, коли рекурсивний процес закінчується. тому він може вирішувати задачі з 10M+ токенів з набагато меншою кількістю «розгнивання контексту» і часто нижчою вартістю, ніж узагальнення/RAG, перетворюючи масштабування довгого контексту на алгоритм з часом висновку, а не просто на велике контекстне вікно.