Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tina He
La verità ti renderà libero
"I sistemi multi-agente non raggiungono gli obiettivi a causa di come sono organizzati."
Sembra un team di esseri umani

elvis2 dic, 02:00
Documento eccezionale per i costruttori di agenti.
I sistemi multi-agente spesso non raggiungono gli obiettivi. Il problema non è come sono costruiti gli agenti stessi. È come sono organizzati.
Sono per lo più costruiti con catene fisse, alberi e grafi che non possono adattarsi mentre i compiti evolvono.
Ma cosa succederebbe se il sistema potesse apprendere i propri schemi di coordinazione?
Questa nuova ricerca introduce Puppeteer, un framework che impara a orchestrare gli agenti in modo dinamico piuttosto che fare affidamento su topologie create a mano.
Invece di predefinire le strutture di collaborazione, un orchestratore seleziona quale agente parla successivamente in base allo stato della conversazione in evoluzione. La politica è addestrata con REINFORCE, ottimizzando direttamente per il successo del compito.
Invece di cercare su complesse topologie grafiche, serializzano tutto in selezioni sequenziali di agenti. Questa riformulazione evita la complessità combinatoria.
Ciò che emerge è sorprendente: schemi ciclici compatti si sviluppano naturalmente. Non grafi espansivi, ma anelli stretti in cui 2-3 agenti gestiscono la maggior parte del lavoro.
La parte notevole è che il sistema scopre l'efficienza da solo.
Risultati:
- Su problemi matematici GSM-Hard: 70% di accuratezza (in aumento dal 13,5% per il modello base da solo).
- Su MMLU-Pro: 83% (rispetto al 76% di base).
- Su sviluppo software SRDD: 76,4% (rispetto al 60,6% di base).
Questi guadagni si accompagnano a una riduzione del consumo di token. Il documento mostra che i costi dei token diminuiscono costantemente durante l'addestramento mentre le prestazioni migliorano.
Dimostrano anche che il processo di selezione degli agenti soddisfa le proprietà di Markov, il che significa che solo lo stato attuale determina l'agente successivo ottimale. Non è necessario tenere traccia della storia completa.
Perché è importante per gli sviluppatori di AI: la semplicità appresa supera la complessità ingegnerizzata. Un router addestrato con un pugno di agenti specializzati può superare flussi di lavoro elaborati creati a mano riducendo il sovraccarico computazionale.

314
Principali
Ranking
Preferiti


