"Modele de limbaj recursive" O direcție potențial importantă pentru LLM-uri în 2026 din partea cercetătorilor MIT În abordarea lor, un prompt nu este "rulat" direct, ci stocat ca o variabilă într-un REPL Python extern, iar modelul de limbaj scrie cod pentru a inspecta/tăia/descompune acel șir lung, observă ieșirile de execuție și apoi construiește sub-sarcini unde invocă recursiv un LLM doar pe fragmentele relevante. Îmbinarea rezultatului când procesul recursiv se încheie. astfel, poate rezolva sarcini de 10M+ token-uri cu mult mai puțin "context rot" și adesea costuri mai mici decât rezumatizarea/RAG, transformând scalarea pe context lung într-un algoritm de inferență în timp, nu doar într-o fereastră de context mai mare.