Новое исследование от IBM Research о самоулучшающихся агентах. Агенты имеют "амнезию." Агент, который испытывает трудности с определенным потоком аутентификации API сегодня, будет испытывать те же трудности и завтра, если его не обновить вручную. В этой статье представлена структура для автоматического извлечения практических знаний из траекторий выполнения агентов и их использования для улучшения будущей производительности через контекстное извлечение памяти. Система генерирует три типа рекомендаций: советы по стратегии из успешных паттернов, советы по восстановлению из обработки неудач и советы по оптимизации из неэффективных, но успешных выполнений. Экстрактор Интеллекта Траектории выполняет семантический анализ паттернов рассуждений агентов, в то время как Анализатор Атрибуции Решений отслеживает назад по шагам рассуждений, чтобы выявить коренные причины. На бенчмарке AppWorld агент с улучшенной памятью достигает 73,2% выполнения целей задач по сравнению с 69,6% в базовом варианте (+3,6 п.п.) и 64,3% выполнения целей сценария по сравнению с 50,0% (+14,3 п.п.). Преимущества увеличиваются с ростом сложности задач. Задачи сложности 3 показывают самые драматические улучшения: +28,5 п.п. по целям сценария (19,1% до 47,6%), что составляет 149% относительного увеличения. Почему это важно: Агенты, которые учатся на своих собственных следах выполнения, а не только на обучающих данных, могут систематически улучшаться без ручной настройки подсказок. Самоподдерживающийся цикл лучших советов, производящих лучшие траектории, производящих лучшие советы, является практическим путем к системам самоулучшающихся агентов. Статья: Научитесь создавать эффективные AI-агенты в нашей академии: