"递归语言模型" 来自麻省理工学院研究人员的2026年LLM潜在重大方向 在他们的方法中,提示并不是直接“运行”,而是作为变量存储在外部Python REPL中,语言模型编写代码来检查/切片/分解该长字符串,观察执行输出,然后构建子任务,在相关片段上递归调用LLM。当递归过程结束时,将结果拼接在一起。 因此,它可以以远低于总结/RAG的成本解决超过1000万标记的任务,并且“上下文衰退”更少,将长上下文扩展转变为推理时算法,而不仅仅是更大的上下文窗口。