"Rekurencyjne modele językowe" Potencjalnie duży kierunek dla LLM w 2026 roku od badaczy z MIT W ich podejściu, podpowiedź nie jest „uruchamiana” bezpośrednio, zamiast tego jest przechowywana jako zmienna w zewnętrznym REPL Pythona, a model językowy pisze kod, aby sprawdzić/podzielić/rozłożyć ten długi ciąg, obserwuje wyniki wykonania, a następnie konstruuje podzadania, w których rekurencyjnie wywołuje LLM tylko na odpowiednich fragmentach. Łącząc wynik, gdy proces rekurencyjny się kończy. Dzięki temu może rozwiązywać zadania z ponad 10M tokenów z dużo mniejszym „rozmyciem kontekstu” i często niższym kosztem niż podsumowanie/RAG, przekształcając skalowanie długiego kontekstu w algorytm czasu wnioskowania, a nie tylko w większe okno kontekstowe.