Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
О создании систем памяти для задач долгосрочного рассуждения.
Это действительно важная тема, особенно для улучшения кодирующих агентов, таких как Claude Code.
Текущие подходы к генерации с увеличенной памятью полагаются на семантическое сходство в монолитных хранилищах памяти. Все переплетается: временная информация, причинно-следственные связи, ссылки на сущности. Когда вы извлекаете данные только на основе семантического сходства, вы теряете структуру, которая делает рассуждение возможным.
Этот дизайн ограничивает интерпретируемость и создает несоответствие между тем, что на самом деле нужно запросу, и тем, что извлекается.
Это новое исследование представляет MAGMA, архитектуру агентной памяти с множественными графами, которая представляет каждый элемент памяти через четыре ортогональных графа: семантический, временной, причинный и граф сущностей.
Ключевая идея:
Вместо того чтобы запихивать все в одно пространство встраивания, разделите различные типы отношений на отдельные графовые структуры. Семантическое сходство говорит вам, что связано по теме. Временные графы говорят вам, что произошло и когда. Причинные графы говорят вам, что привело к чему. Графы сущностей говорят вам, кто и что связано.
MAGMA формулирует извлечение как ориентированное на политику перемещение по этим реляционным представлениям. Агент учится перемещаться по графам на основе намерения запроса, что позволяет адаптивный выбор и структурированное построение контекста.
Разделяя представление памяти от логики извлечения, MAGMA предоставляет прозрачные пути рассуждения. Вы можете на самом деле увидеть, почему были извлечены определенные воспоминания и как они связаны с запросом.
Эксперименты на LoCoMo и LongMemEval демонстрируют, что MAGMA последовательно превосходит современные агентные системы памяти в задачах долгосрочного рассуждения.
Почему эта работа важна:
Поскольку агенты обрабатывают все более сложные, длительные задачи, память становится узким местом. Монолитное извлечение ломается, когда вам нужно рассуждать о последовательностях событий, причинах и следствиях или отношениях между сущностями. Многографовая память предлагает путь вперед.
Статья:
Научитесь создавать эффективные AI-агенты в нашей академии:

Топ
Рейтинг
Избранное
