Nuove ricerche di IBM Research sugli Agenti Auto-Miglioranti. Gli agenti hanno "amnesia." Un agente che oggi ha difficoltà con un particolare flusso di autenticazione API avrà difficoltà con lo stesso flusso domani, a meno che non venga aggiornato manualmente. Questo documento introduce un framework per estrarre automaticamente insegnamenti praticabili dalle traiettorie di esecuzione degli agenti e utilizzarli per migliorare le prestazioni future attraverso il recupero della memoria contestuale. Il sistema genera tre tipi di indicazioni: suggerimenti strategici da schemi di successo, suggerimenti di recupero dalla gestione dei fallimenti e suggerimenti di ottimizzazione da esecuzioni inefficienti ma di successo. Un Estrattore di Intelligenza delle Traiettorie esegue un'analisi semantica dei modelli di ragionamento degli agenti, mentre un Analizzatore di Attribuzione delle Decisioni risale attraverso i passaggi di ragionamento per identificare le cause radice. Sull benchmark AppWorld, l'agente potenziato dalla memoria raggiunge il 73,2% di completamento degli obiettivi di compito rispetto al 69,6% di base (+3,6 pp) e il 64,3% di completamento degli obiettivi di scenario rispetto al 50,0% (+14,3 pp). I benefici aumentano con la complessità del compito. I compiti di difficoltà 3 mostrano i miglioramenti più drammatici: +28,5 pp sugli obiettivi di scenario (19,1% a 47,6%), un aumento relativo del 149%. Perché è importante: Agenti che apprendono dalle proprie tracce di esecuzione, non solo dai dati di addestramento, possono migliorare sistematicamente senza ingegneria manuale dei prompt. Il ciclo auto-rinforzante di migliori suggerimenti che producono migliori traiettorie che producono migliori suggerimenti è un percorso pratico verso sistemi di agenti auto-miglioranti. Documento: Impara a costruire agenti AI efficaci nella nostra accademia: