Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Memória Eficiente e Duradoura para Agentes LLM
Os agentes LLM precisam de memória para lidar com conversas longas. A forma como isso é tratado hoje é que a memória ou retém todo o histórico de interações, levando a uma enorme redundância, ou depende de raciocínio iterativo para filtrar ruídos, consumindo tokens excessivos.
Esta nova pesquisa introduz o SimpleMem, uma estrutura de memória eficiente baseada em compressão semântica sem perda que maximiza a densidade de informação enquanto minimiza o consumo de tokens.
A estrutura opera através de um pipeline em três etapas.
1) Primeiro, a Compressão Semântica Estruturada aplica filtragem consciente da entropia para destilar diálogos brutos em unidades de memória compactas, resolvendo co-referências e convertendo expressões de tempo relativas ("na última sexta-feira") em timestamps absolutos.
2) Em segundo lugar, a Consolidação Recursiva de Memória integra incrementalmente memórias relacionadas em abstrações de nível superior, transformando entradas repetitivas como "pediu um latte às 8 da manhã" em padrões como "bebe café regularmente de manhã."
3) Por fim, a Recuperação Adaptativa Consciente da Consulta ajusta dinamicamente o escopo de recuperação com base na complexidade da consulta.
Os resultados: No benchmark LoCoMo com GPT-4.1-mini, o SimpleMem alcança 43.24 F1, superando a linha de base mais forte Mem0 (34.20) em 26.4%, enquanto reduz o consumo de tokens para apenas 531 tokens por consulta em comparação com 16.910 para abordagens de contexto completo, uma redução de 30x.
Eles afirmam que a construção da memória é 14x mais rápida que a Mem0 (92.6s vs 1350.9s por amostra) e 50x mais rápida que a A-Mem. Mesmo um modelo de 3B parâmetros com SimpleMem supera modelos maiores usando estratégias de memória inferiores.
Este trabalho mostra que a compressão semântica estruturada e a recuperação adaptativa permitem que os agentes LLM mantenham uma memória de longo prazo confiável sem se afogar em tokens ou sacrificar a precisão.

Top
Classificação
Favoritos
