"Modelos de Linguagem Recursivos" Uma direção potencialmente grande para LLMs em 2026, a partir de pesquisadores do MIT Na sua abordagem, um prompt não é "executado" diretamente, em vez disso, é armazenado como uma variável em um REPL Python externo, e o modelo de linguagem escreve código para inspecionar/fatiar/decompor aquela longa string, observa as saídas de execução e, em seguida, constrói sub-tarefas onde invoca recursivamente um LLM apenas nos trechos relevantes. Costurando o resultado quando o processo recursivo termina. Assim, pode resolver tarefas de 10M+ tokens com muito menos "degradação de contexto" e muitas vezes a um custo menor do que a sumarização/RAG, transformando a escalabilidade de longo contexto em um algoritmo de tempo de inferência em vez de apenas uma janela de contexto maior.