Iedereen mist hier het echte verhaal. Dit is geen "prompting techniek." Het paper heet Recursive Language Models, niet "Recursive Meta-Cognition." En de auteurs zijn geen willekeurige onderzoekers die strijden om citaties. Omar Khattab heeft DSPy gecreëerd, dat meer dan 31.000 GitHub-sterren heeft en de manier waarop mensen samengestelde AI-systemen bouwen heeft veranderd. Tim Kraska heeft geleerde indexstructuren gepionierd met Jeff Dean bij Google en leidt het Data Systems and AI Lab van MIT. Alex Zhang is een PhD-student die werkt op het snijvlak van beide. Het daadwerkelijke paper behandelt een specifiek probleem: LLM's verslechteren bij lange context. De grafiek toont aan dat de prestaties van GPT-5 instorten naarmate de invoerlengte schaalt van 2^14 naar 2^21 tokens, terwijl RLM's stabiele prestaties behouden. Ze verwerken invoer 100x voorbij contextvensters. De belangrijkste inzicht van Khattab's eigen Twitter: "De meeste mensen begrijpen RLM's verkeerd als LLM's die zichzelf aanroepen. Het diepere inzicht is dat LLM's interageren met hun eigen prompts als objecten." Dit breidt de hele onderzoekslijn van Khattab uit. DSPy heeft prompts omgevormd tot programmatic modules. ColBERT maakte retrieval slimmer. RLM's maken de context zelf tot iets dat het model kan manipuleren zoals data in het geheugen. Prime Intellect, een van de toonaangevende gedecentraliseerde AI-labs, bouwt hier al op voort. Ze schreven dat RLM's hen zullen laten "modellen leren om hun eigen context end-to-end te beheren via reinforcement learning" voor agenten die weken of maanden draaien. De echte ruil? Dit lost een beperking op waar elk AI-lab mee te maken heeft: contextvensters zijn een harde limiet. Ze uitbreiden via architectuur en training is duur. RLM's bieden een benadering tijdens inferentie die werkt met bestaande modellen. Maar let op de catch: dit vereist modellen die betrouwbaar code kunnen schrijven en uitvoeren. De benchmarks gebruiken GPT-5 in een Python REPL. Modellen met zwakkere codegeneratie zullen moeite hebben om de recursieve decompositie schoon uit te voeren. De techniek schaalt met codecapaciteit, niet alleen met redeneercapaciteit.