Um artigo que vale a pena prestar atenção. Apresenta a Gestão de Contexto Sem Perdas (LCM), que reformula a forma como os agentes lidam com contextos longos. Supera o Claude Code em tarefas de contexto longo. Modelos de Linguagem Recursivos dão ao modelo total autonomia para escrever seus próprios scripts de memória. O LCM retoma esse poder, entregando-o a um motor determinístico que comprime mensagens antigas em um DAG hierárquico, mantendo ponteiros sem perdas para cada original. Menos expressivo em teoria, muito mais confiável na prática. Os resultados: O agente deles (Volt, na Opus 4.6) supera o Claude Code em *todas* as extensões de contexto de 32K a 1M tokens no benchmark OOLONG. +29,2 pontos de melhoria média em comparação com os +24,7 do Claude Code. A diferença aumenta em contextos mais longos. A implicação é uma que continuamos a reaprender com a história da engenharia de software: como você gerencia o que o modelo vê pode ser mais importante do que dar ao modelo ferramentas para gerenciá-lo por conta própria. Cada estrutura de agente que é enviada com estratégias de memória "deixe o modelo descobrir" pode estar se baseando na abstração errada completamente. Artigo: Aprenda a construir agentes de IA eficazes em nossa academia: