Nowe badania z IBM Research na temat agentów samodoskonalących się. Agenci mają "amnezję." Agent, który dzisiaj ma problemy z określonym przepływem uwierzytelniania API, będzie miał te same problemy jutro, chyba że zostanie ręcznie zaktualizowany. Niniejszy artykuł wprowadza ramy do automatycznego wydobywania użytecznych wniosków z trajektorii wykonania agenta i wykorzystywania ich do poprawy przyszłej wydajności poprzez kontekstowe odzyskiwanie pamięci. System generuje trzy rodzaje wskazówek: wskazówki strategiczne z udanych wzorców, wskazówki dotyczące odzyskiwania z obsługi błędów oraz wskazówki optymalizacyjne z nieefektywnych, ale udanych wykonania. Ekstraktor Inteligencji Trajektorii przeprowadza analizę semantyczną wzorców rozumowania agenta, podczas gdy Analizator Atrybucji Decyzji cofa się przez kroki rozumowania, aby zidentyfikować przyczyny źródłowe. Na benchmarku AppWorld, agent z ulepszoną pamięcią osiąga 73,2% realizacji celów zadania w porównaniu do 69,6% w podstawowej wersji (+3,6 pp) oraz 64,3% realizacji celów scenariusza w porównaniu do 50,0% (+14,3 pp). Korzyści rosną wraz z złożonością zadań. Zadania o trudności 3 pokazują najbardziej dramatyczne poprawy: +28,5 pp w celach scenariusza (19,1% do 47,6%), co stanowi 149% względny wzrost. Dlaczego to ma znaczenie: Agenci, którzy uczą się na podstawie własnych śladów wykonania, a nie tylko na podstawie danych treningowych, mogą systematycznie poprawiać się bez ręcznego inżynierii podpowiedzi. Samowzmacniający się cykl lepszych wskazówek prowadzących do lepszych trajektorii, które prowadzą do lepszych wskazówek, jest praktyczną drogą do systemów agentów samodoskonalących się. Artykuł: Naucz się budować skuteczne agenty AI w naszej akademii: