Drepte Stanford nettopp LLM-finjustering? Denne nye artikkelen fra Stanford, kalt Agentic Context Engineering (ACE), beviser noe vilt: du kan gjøre modeller smartere uten å endre en eneste vekt. Slik fungerer det: I stedet for å omskolere modellen, utvikler ACE selve konteksten. Modellen skriver sin egen ledetekst, reflekterer over hva som fungerte og hva som ikke gjorde det, og skriver den deretter om på nytt. Om og om igjen. Det blir et selvforbedrende system. Tenk på det som modellen som holder en levende notatbok der hver feil blir en leksjon og hver suksess blir en regel. Resultatene er imponerende: - 10,6 % bedre enn GPT-4-drevne agenter på AppWorld - 8,6 % forbedring på økonomiske resonneringsoppgaver - 86,9 % lavere kostnad og ventetid Ingen merkede data kreves. Bare tilbakemeldingssløyfer. Her er den kontraintuitive delen: Alle jager korte, rene spørsmål. ACE gjør det motsatte. Den bygger tette, utviklende strategibøker som sammensettes over tid. Det viser seg at LLM-er ikke trenger enkelhet. De trenger konteksttetthet. Spørsmålet her er hvordan du skal håndtere all denne informasjonen og opplevelsen. Det er her å bygge et sanntidsminnelag for agenter (f.eks. @zep_ai ) kan være en flott løsning og et aktivt forskningsområde fremover. Hva er dine tanker? Jeg har lenket til artikkelen i neste tweet! ____ Hvis du syntes det var innsiktsfullt, kan du dele det med nettverket ditt. Finn meg → @akshay_pachaar ✔️ For mer innsikt og opplæringer om LLM-er, AI-agenter og maskinlæring!
Lenke til artikkelen:
61,63K