Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
O budowaniu systemów pamięci dla zadań wymagających długoterminowego rozumowania.
To naprawdę ważny temat, szczególnie w kontekście poprawy agentów kodujących, takich jak Claude Code.
Obecne podejścia do generacji z pamięcią opartą na augmentacji polegają na podobieństwie semantycznym w monolitycznych magazynach pamięci. Wszystko się splata: informacje temporalne, relacje przyczynowe, odniesienia do podmiotów. Kiedy pobierasz dane wyłącznie na podstawie podobieństwa semantycznego, tracisz strukturę, która umożliwia rozumowanie.
Ten projekt ogranicza interpretowalność i tworzy niezgodność między tym, czego rzeczywiście potrzebuje zapytanie, a tym, co zostaje pobrane.
Nowe badania wprowadzają MAGMA, architekturę pamięci agentowej opartą na wielu grafach, która reprezentuje każdy element pamięci w czterech ortogonalnych grafach: semantycznym, temporalnym, przyczynowym i podmiotowym.
Kluczowa idea:
Zamiast upychać wszystko w jednej przestrzeni osadzeń, oddziel różne typy relacji w odrębne struktury grafowe. Podobieństwo semantyczne mówi ci, co jest tematycznie powiązane. Grafy temporalne informują, co się wydarzyło i kiedy. Grafy przyczynowe mówią, co doprowadziło do czego. Grafy podmiotowe informują, kto i co jest ze sobą powiązane.
MAGMA formułuje pobieranie jako przejście prowadzone przez politykę po tych relacyjnych widokach. Agent uczy się nawigować po grafach w oparciu o intencje zapytania, co umożliwia adaptacyjny wybór i strukturalne konstruowanie kontekstu.
Dzięki oddzieleniu reprezentacji pamięci od logiki pobierania, MAGMA zapewnia przejrzyste ścieżki rozumowania. Możesz rzeczywiście zobaczyć, dlaczego pewne wspomnienia zostały pobrane i jak są powiązane z zapytaniem.
Eksperymenty na LoCoMo i LongMemEval pokazują, że MAGMA konsekwentnie przewyższa najnowocześniejsze systemy pamięci agentowej w zadaniach wymagających długoterminowego rozumowania.
Dlaczego ta praca ma znaczenie:
W miarę jak agenci radzą sobie z coraz bardziej złożonymi, długoterminowymi zadaniami, pamięć staje się wąskim gardłem. Monolityczne pobieranie nie sprawdza się, gdy musisz rozumować o sekwencjach zdarzeń, przyczynach i skutkach lub relacjach między podmiotami. Pamięć oparta na wielu grafach oferuje drogę naprzód.
Artykuł:
Naucz się budować skuteczne AI Agents w naszej akademii:

Najlepsze
Ranking
Ulubione
