"Rekursive Sprachmodelle" Eine potenziell große Richtung für LLMs im Jahr 2026 von MIT-Forschern In ihrem Ansatz wird ein Prompt nicht direkt "ausgeführt", sondern als Variable in einem externen Python REPL gespeichert, und das Sprachmodell schreibt Code, um diesen langen String zu inspizieren/schneiden/dekomponieren, beobachtet die Ausführungsausgaben und konstruiert dann Unteraufgaben, bei denen es rekursiv ein LLM nur auf die relevanten Snippets aufruft. Das Ergebnis wird zusammengefügt, wenn der rekursive Prozess endet. So kann es Aufgaben mit über 10 Millionen Tokens mit weit weniger "Kontextverfall" und oft geringeren Kosten als Zusammenfassungen/RAG lösen und verwandelt das Skalieren von Langkontexten in einen Inferenzzeit-Algorithmus, anstatt nur ein größeres Kontextfenster zu sein.