Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Banger-Papier für Agentenentwickler.
Multi-Agenten-Systeme liefern oft nicht die erwarteten Ergebnisse. Das Problem liegt nicht darin, wie die Agenten selbst gebaut sind. Es liegt daran, wie sie organisiert sind.
Sie werden hauptsächlich mit festen Ketten, Bäumen und Graphen gebaut, die sich nicht anpassen können, während sich die Aufgaben entwickeln.
Aber was wäre, wenn das System seine eigenen Koordinationsmuster lernen könnte?
Diese neue Forschung stellt Puppeteer vor, ein Framework, das lernt, Agenten dynamisch zu orchestrieren, anstatt sich auf handgefertigte Topologien zu verlassen.
Anstatt Kollaborationsstrukturen im Voraus zu definieren, wählt ein Orchestrator aus, welcher Agent als nächstes spricht, basierend auf dem sich entwickelnden Gesprächszustand. Die Strategie wird mit REINFORCE trainiert, um direkt den Erfolg der Aufgabe zu optimieren.
Anstatt über komplexe Graph-Topologien zu suchen, serialisieren sie alles in sequentielle Agentenauswahlen. Diese Umformulierung umgeht die kombinatorische Komplexität.
Was entsteht, ist überraschend: kompakte zyklische Muster entwickeln sich auf natürliche Weise. Keine ausufernden Graphen, sondern enge Schleifen, in denen 2-3 Agenten den Großteil der Arbeit erledigen.
Der bemerkenswerte Teil ist, dass das System die Effizienz von selbst entdeckt.
Ergebnisse:
- Bei GSM-Hard-Mathematikproblemen: 70% Genauigkeit (von 13,5% für das Basis-Modell allein).
- Bei MMLU-Pro: 83% (gegenüber 76% Basislinie).
- Bei SRDD-Softwareentwicklung: 76,4% (gegenüber 60,6% Basislinie).
Diese Gewinne gehen mit einem reduzierten Tokenverbrauch einher. Das Papier zeigt, dass die Token-Kosten während des Trainings konstant sinken, während die Leistung steigt.
Sie beweisen auch, dass der Agentenauswahlprozess die Markov-Eigenschaften erfüllt, was bedeutet, dass der aktuelle Zustand allein den optimalen nächsten Agenten bestimmt. Es ist nicht notwendig, die gesamte Historie zu verfolgen.
Warum es für AI-Entwickler wichtig ist: Gelernte Einfachheit übertrifft konstruierte Komplexität. Ein trainierter Router mit einer Handvoll spezialisierter Agenten kann ausgeklügelte handgefertigte Workflows übertreffen und gleichzeitig den Rechenaufwand reduzieren.

Top
Ranking
Favoriten

