Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Zarządzanie pamięcią autonomiczną w agentach LLM
Agenci LLM mają trudności z zadaniami o długim horyzoncie z powodu nadmiaru kontekstu.
W miarę jak historia interakcji rośnie, koszty obliczeniowe eksplodują, opóźnienia wzrastają, a rozumowanie pogarsza się z powodu rozproszenia przez nieistotne błędy z przeszłości.
Standardowe podejście to tylko dodawanie: każda myśl, wywołanie narzędzia i odpowiedź trwale się kumulują. Działa to w przypadku krótkich zadań, ale gwarantuje porażkę w przypadku złożonej eksploracji.
Niniejsze badania wprowadzają Focus, architekturę skoncentrowaną na agencie, inspirowaną śluzowcem (Physarum polycephalum). Biologiczny wgląd: organizmy nie zachowują doskonałych zapisów każdego ruchu przez labirynt. Zachowują nauczoną mapę.
Focus daje agentom dwa nowe prymitywy: start_focus i complete_focus. Agent autonomicznie decyduje, kiedy skonsolidować nauki w trwałym bloku wiedzy i aktywnie przycina surową historię interakcji. Żadne zewnętrzne timery ani heurystyki nie wymuszają kompresji.
Deklaruje, co bada, eksploruje przy użyciu standardowych narzędzi, a następnie konsoliduje, podsumowując, co zostało podjęte, co zostało nauczone i jaki był wynik. System dodaje to do trwałego bloku wiedzy i usuwa wszystko pomiędzy punktem kontrolnym a bieżącym krokiem.
To przekształca monotonnie rosnący kontekst w wzór ząbkowany: wzrost podczas eksploracji, załamanie podczas konsolidacji.
Ewaluacja na SWE-bench Lite z Claude Haiku 4.5 pokazuje, że Focus osiąga 22,7% redukcji tokenów (14,9M do 11,5M tokenów), zachowując identyczną dokładność (60% zarówno dla podstawy, jak i Focus). Indywidualne przypadki wykazały oszczędności do 57%.
Agresywne podpowiadanie ma znaczenie. Pasywne podpowiadanie przyniosło tylko 6% oszczędności. Wyraźne instrukcje do kompresji co 10-15 wywołań narzędzi, z przypomnieniami systemowymi, zwiększyły kompresje z 2,0 do 6,0 na zadanie.
Zdolne modele mogą autonomicznie samoregulować swój kontekst, gdy mają odpowiednie narzędzia i podpowiedzi, otwierając drogi dla systemów agentowych świadomych kosztów, bez poświęcania wydajności zadania.
Artykuł:
Naucz się budować skuteczne agenty AI w naszej akademii:

Najlepsze
Ranking
Ulubione
