"Modelos de lenguaje recursivos" Una dirección potencialmente importante para los LLMs en 2026 por parte de los investigadores del MIT En su enfoque, un prompt no se "ejecuta" directamente, sino que se almacena como una variable en un REPL externo de Python, y el modelo de lenguaje escribe código para inspeccionar/cortar o descomponer esa cadena larga, observa las salidas de ejecución y luego construye subtareas donde invoca recursivamente un LLM solo con los fragmentos relevantes. Unir el resultado cuando termina el proceso recursivo. por lo que puede resolver tareas de 10M+ tokens con mucho menos "descomposición del contexto" y a menudo menor coste que la resumención/RAG, convirtiendo la escalada de contexto largo en un algoritmo de inferencia-tiempo en lugar de simplemente una ventana de contexto más grande.