"Rekurzivní jazykové modely" Potenciálně velký směr pro LLM v roce 2026 od výzkumníků z MIT V jejich přístupu se prompt přímo "spouště" přímo, ale je uložen jako proměnná v externím Python REPL, a jazykový model píše kód pro kontrolu/slice/dekompozici tohoto dlouhého řetězce, sleduje výstupy z provádění a pak vytváří podtasky, kde rekurzivně vyvolává LLM pouze na relevantních úryvcích. Spojování výsledku, když rekurzivní proces skončí. takže dokáže vyřešit 10M+ tokenové úlohy s mnohem menším "kontextovým rozkladem" a často nižšími náklady než sumarizace/RAG, čímž promění dlouhodobé škálování v algoritmus s časem inference, nikoli jen v širším kontextovém okně.