Все упускают настоящую суть происходящего. Это не "техника подсказок". Статья называется "Рекурсивные языковые модели", а не "Рекурсивная мета-когниция". И авторы не случайные исследователи, стремящиеся к количеству цитирований. Омар Хаттаб создал DSPy, который имеет более 31,000 звезд на GitHub и изменил подход людей к созданию сложных AI-систем. Тим Краска стал пионером изученных индексных структур вместе с Джеффом Дином в Google и руководит Лабораторией систем данных и AI в MIT. Алекс Чжан — аспирант, работающий на пересечении обоих направлений. На самом деле статья рассматривает конкретную проблему: LLMs ухудшаются при длинном контексте. График показывает, как производительность GPT-5 падает, когда длина ввода увеличивается с 2^14 до 2^21 токенов, в то время как RLMs сохраняют стабильную производительность. Они обрабатывают ввод в 100 раз превышающий окна контекста. Ключевое понимание из самого Twitter Хаттаба: "Большинство людей неправильно понимают RLMs как LLMs, которые вызывают сами себя. Более глубокое понимание заключается в том, что LLMs взаимодействуют со своими собственными подсказками как с объектами." Это расширяет всю исследовательскую арку Хаттаба. DSPy превратил подсказки в программные модули. ColBERT сделал извлечение более умным. RLMs превращают сам контекст в нечто, с чем модель может манипулировать, как с данными в памяти. Prime Intellect, одна из ведущих децентрализованных AI-лабораторий, уже строит на этом. Они написали, что RLMs позволят им "обучать модели управлять своим собственным контекстом от начала до конца через обучение с подкреплением" для агентов, работающих в течение недель или месяцев. Настоящая сделка? Это решает ограничение, с которым сталкивается каждая AI-лаборатория: окна контекста — это жесткий потолок. Расширение их через архитектуру и обучение дорого. RLMs предлагают подход во время вывода, который работает с существующими моделями. Но будьте внимательны к уловке: это требует моделей, которые могут надежно писать и выполнять код. Бенчмарки используют GPT-5 в Python REPL. Модели с более слабой генерацией кода будут испытывать трудности с чистым внедрением рекурсивного разложения. Эта техника масштабируется с возможностями кода, а не только с возможностями рассуждения.