Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NOWE badania nad poprawą pamięci dla agentów AI.
(zapisz to)
W miarę jak okna kontekstowe rosną do milionów tokenów, wąskie gardło przesuwa się z surowej pojemności na kontrolę poznawczą. Wiedza o tym, co się wie, co jest brakujące i kiedy przestać, ma większe znaczenie niż przetwarzanie każdego tokena.
Dłuższe okna kontekstowe nie gwarantują lepszego rozumowania. W dużej mierze wynika to z tego, że sposób, w jaki deweloperzy obsługują ultra-długie dokumenty, polega obecnie na rozszerzaniu okna kontekstowego lub kompresowaniu wszystkiego w jedną przejrzystość.
Jednak gdy decydujące dowody są rzadkie i rozproszone w milionie tokenów, pasywne strategie pamięci cicho odrzucają łączące fakty potrzebne do rozumowania wieloetapowego.
Te nowe badania wprowadzają InfMem, agenta z ograniczoną pamięcią, który stosuje kontrolę poznawczą w stylu Systemu-2 do odpowiadania na pytania w długich dokumentach poprzez strukturalny protokół PRETHINK–RETRIEVE–WRITE.
Zamiast pasywnie kompresować każdy segment w miarę jego przepływu, InfMem aktywnie monitoruje, czy jego pamięć jest wystarczająca do odpowiedzi na pytanie. Czy obecne dowody są wystarczające? Czego brakuje? Gdzie w dokumencie powinienem szukać?
PRETHINK działa jako kontroler poznawczy, decydując, czy zatrzymać się, czy pozyskać więcej dowodów. Gdy istnieją luki w dowodach, syntetyzuje ukierunkowane zapytanie o pozyskanie i pobiera odpowiednie fragmenty z dowolnego miejsca w dokumencie, w tym wcześniejsze sekcje, które już przeszły. WRITE następnie wykonuje wspólną kompresję, integrując pozyskane dowody z bieżącym segmentem w ograniczonej pamięci pod stałym budżetem.
Przepis na trening wykorzystuje rozgrzewkę SFT, aby nauczyć mechaniki protokołu poprzez destylację z Qwen3-32B, a następnie uczenie przez wzmocnienie dostosowuje decyzje o pozyskiwaniu, pisaniu i zatrzymywaniu do poprawności końcowego zadania, wykorzystując nagrody oparte na wynikach i kształtowanie wczesnego zatrzymania.
Na ultra-długich benchmarkach QA od 32k do 1M tokenów, InfMem przewyższa MemAgent o +10.17, +11.84 i +8.23 punktów średniej absolutnej dokładności na Qwen3-1.7B, Qwen3-4B i Qwen2.5-7B, odpowiednio.
Agent InfMem o 4B parametrach utrzymuje stałą dokładność do 1M tokenów, gdzie standardowe punkty odniesienia, takie jak YaRN, załamują się do wydajności jednocyfrowej. Opóźnienie wnioskowania spada średnio o 3.9x (do 5.1x) dzięki adaptacyjnemu wczesnemu zatrzymaniu.
Te zyski przenoszą się również na LongBench QA, gdzie InfMem+RL osiąga do +31.38 absolutnej poprawy w poszczególnych zadaniach w porównaniu do punktu odniesienia YaRN.
Artykuł:
Naucz się budować skuteczne agenty AI w naszej akademii:

Najlepsze
Ranking
Ulubione
