"Recursieve Taalmodellen" Een potentieel grote richting voor LLM's in 2026 van MIT-onderzoekers In hun benadering wordt een prompt niet direct "uitgevoerd", maar in plaats daarvan opgeslagen als een variabele in een externe Python REPL, en het taalmodel schrijft code om die lange string te inspecteren/slicen/decomponeren, observeert de uitvoer van de uitvoering en construeert vervolgens sub-taken waarbij het recursief een LLM aanroept op alleen de relevante fragmenten. Het resultaat wordt samengevoegd wanneer het recursieve proces eindigt. zodat het 10M+ token taken kan oplossen met veel minder "context rot" en vaak lagere kosten dan samenvatting/RAG, waardoor schaling van lange contexten een inferentietijd-algoritme wordt in plaats van alleen een groter contextvenster.