"Modelos de Linguagem Recursiva" Uma direção potencialmente importante para os LLMs em 2026 por parte de pesquisadores do MIT Na abordagem deles, um prompt não é "executado" diretamente, ele é armazenado como uma variável em um REPL externo em Python, e o modelo de linguagem escreve código para inspecionar/fatiar/decompor essa longa string, observa as saídas de execução e depois constrói subtarefas onde invoca recursivamente um LLM apenas com os trechos relevantes. Juntar o resultado quando o processo recursivo termina. assim, pode resolver tarefas de 10M+ tokens com muito menos "podridão do contexto" e frequentemente menor custo do que a sumarização/RAG, transformando a escalabilidade de contexto longo em um algoritmo de tempo de inferência, em vez de apenas uma janela de contexto maior.