Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Agenter som selv orkestrerer, styrer sin egen kontekst, verktøy og underagenter, er den neste store åpningen i LLM-ytelse.
Akkurat nå kan en dyktig ingeniør som bygger et optimalisert ledningsnett, med gjennomtenkt dataflyt, ansvarsfordeling, underagentstyring osv., gjøre dramatiske forbedringer sammenlignet med utgangspunktet for spesifikke oppgaver.
Hvis en modell kunne gjøre dette selv, ville det vært et stort steg fremover. Du gir den et mål og et sett med verktøy, og den finner ut den optimale måten å orkestrere seg selv for å utføre oppgaven.
For eksempel bygger jeg en veldig primitiv AI-forsker som jeg snart skal åpne kildekode. Mesteparten av arbeidet ligger ikke i prompten, det ligger i selen... Hva orkestratoren ser, hva underagenter ser, hva som deles mellom dem og når, hvor vi oppsummerer kontra sender rådata, og hvilke verktøy hver agent kontrollerer.
Dette gjør at jeg kan forbedre hva modellen kan gjøre på egenhånd dramatisk. Hvis en modell effektivt kan designe sin egen ledningsnett for et gitt problem, ville det vært et stort steg fremover.
Mitt veddemål: selvorkestrerende modeller... De som styrer sin egen kontekst, verktøy og underaktører, vil flytte grensen nesten like mye som spranget fra chatbot → Reasoning gjorde.
Kanskje mer.
Bare bestemmer mitt her... Jeg er ganske trygg på dette.
Noen kan prototype dette i dag (kanskje jeg gjør det!) ved å la en modell skrive en harness for en gitt prompt i Python, sette den inn i en @daytonaio sandkasse eller noe lignende, og deretter sende prompten videre til harnessen.
105
Topp
Rangering
Favoritter
