"Rekursive språkmodeller" En potensielt stor retning for LLM-er i 2026 fra MIT-forskere I deres tilnærming blir ikke en prompt "kjørt" direkte, men lagres som en variabel i en ekstern Python REPL, og språkmodellen skriver kode for å inspisere/slice/dekomponere den lange strengen, observerer utførelsesutdata, og konstruerer deretter deloppgaver hvor den rekursivt kaller en LLM på bare de relevante snippetene. Å sy sammen resultatet når den rekursive prosessen avsluttes. så den kan løse 10M+ token-oppgaver med langt mindre "kontekstrot" og ofte lavere kostnad enn oppsummering/RAG, og gjør lang-kontekst-skalering til en inferensalgoritme i stedet for bare et større kontekstvindu.