Nový výzkum od IBM Research on Self-Improvement Agents. Agenti mají "amnézii." Agent, který dnes má problémy s konkrétním API autentizačním procesem, bude mít stejný postup i zítra, pokud nebude ručně aktualizován. Tento článek představuje rámec pro automatické získávání akčních poznatků z trajektorií vykonávání agentů a jejich využití ke zlepšení budoucího výkonu prostřednictvím kontextového vyhledávání pamětí. Systém generuje tři typy pokynů: strategické tipy na základě úspěšných vzorců, tipy na obnovu z řešení selhání a optimalizační tipy na neefektivní, ale úspěšné realizace. Extraktor trajektorie inteligence provádí sémantickou analýzu vzorců uvažování agentů, zatímco analyzátor atribuce rozhodnutí sleduje zpětně kroky uvažování, aby identifikoval kořenové příčiny. V benchmarku AppWorld dosahuje agent s vylepšenou pamětí 73,2 % splnění úkolových cílů oproti 69,6 % výchozí hodnoty (+3,6 pp) a 64,3 % dokončení scénářových cílů oproti 50,0 % (+14,3 pp). Přínosy se liší podle složitosti úkolu. Úkoly obtížnosti 3 vykazují nejdramatičtější zlepšení: +28,5 pp u cílů scénářů (19,1 % na 47,6 %), což představuje relativní nárůst o 149 %. Proč je to důležité: Agenti, kteří se učí ze svých vlastních výkonných stop, nejen z tréninkových dat, se mohou systematicky zlepšovat bez manuálního inženýrství promptů. Samoposilující cyklus lepších špiček produkujících lepší trajektorie a lepších špiček je praktickou cestou k samozlepšujícím se agentním systémům. Článek: Naučte se vytvářet efektivní AI agenty v naší akademii: