Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Femke Plantinga
Lær med meg om AI.
Vekst @weaviate_io
Det vanskeligste med å bygge AI-agenter er ikke å lære dem å huske.
Det er å lære dem å glemme.
Min kollega og utrolig talentfulle forfatter @helloiamleonie nettopp publisert det som kanskje er den mest omfattende gjennomgangen av agentminne jeg har sett – og tro meg, vi trengte alle dette.
Her er hovedutfordringen: LLM-er er statsløse. Hver samtale er en ny start. De husker ikke hva du sa for fem minutter siden, langt mindre hva du sa forrige uke. Så hvordan lager vi aktører som faktisk husker?
To grunnleggende minnetyper:
• Korttidsminne: Informasjon i LLM-ens kontekstvindu (den nåværende samtalen)
• Langtidsminne: Informasjon lagret eksternt (tidligere samtaler, brukerpreferanser, lærte fakta)
Men her blir det interessant – og forvirrende. Ulike rammeverk kategoriserer hukommelse forskjellig, for eksempel:
CoALA sin tilnærming (inspirert av menneskelig kognisjon):
• Arbeidsminne (nåværende samtale)
• Semantisk minne (fakta om brukeren)
• Episodisk hukommelse (tidligere erfaringer og handlinger)
• Prosedyreminne (instruksjoner og atferd)
Lettas tilnærming (arkitekturfokusert):
• Meldingsbuffer (nylige meldinger)
• Kjerneminne (aktivt administrerte blokker i kontekst)
• Gjenkall minne (rå samtalehistorikk)
• Arkivminne (eksplisitt lagret kunnskap)
Det vanskeligste? Glemme.
Å håndtere hva som går inn i minnet er veldig komplekst. Å håndtere hva som blir slettet er enda vanskeligere. Hvordan automatiserer man avgjørelsen om hva som er utdatert? Når er gammel informasjon genuint utdatert versus fortsatt kontekstuelt relevant? Det er her de fleste implementeringer sliter.
Leonie dekker alt fra de ulike minnetypene (arbeids-, semantisk-, episodisk-, prosedyremessig) til praktiske implementeringsstrategier og det voksende økosystemet av minnerammeverk som mem0, Letta og Zep.
Dette er et av de innleggene du bør bokmerke og vende tilbake til når du bygger agentsystemene dine.
Leonies blogginnlegg:

13,17K
Alle snakker om agentisk AI, men snakker vi alle om det samme?
Jeg har lagt merke til at folk bruker "agentiske arkitekturer" og "agentiske arbeidsflyter" om hverandre.
Men de er faktisk ganske forskjellige konsepter som fungerer sammen.
Her er forskjellen:
Agentiske arbeidsflyter = Serien med trinn en agent tar for å nå et mål
Tenk på det som "hva" - selve prosessen
Disse trinnene kan omfatte:
• Bruke LLM-er til å lage en plan
• Bryte opp oppgaver i deloppgaver
• Bruke verktøy som internettsøk
• Reflektere over resultater og justere planen
Agentarkitekturer = Det tekniske rammeverket og systemdesign
Tenk på det som "hvordan" - den underliggende strukturen
Disse inneholder alltid:
• Minst én agent med beslutningsevne
• Verktøy agenten kan bruke
• Systemer for kort- og langtidshukommelse
Hvorfor er dette viktig?
Fordi den samme arbeidsflyten kan implementeres ved hjelp av forskjellige arkitekturer. Det er som å ha flere måter å bygge den samme oppskriften på - trinnene forblir like, men kjøkkenoppsettet varierer.
For eksempel kan en agentisk RAG-arbeidsflyt (bryte ned spørringer, hente informasjon, evaluere relevans) bygges med en ruterarkitektur med én agent eller et multiagentsystem. Samme arbeidsflyt, forskjellig arkitektur.
Å forstå dette skillet hjelper deg med å:
• Design mer fleksible systemer
• Velg riktig arkitektur for din spesifikke arbeidsflyt
• Kommuniser tydeligere om hva du faktisk bygger
Hvilke agentiske arbeidsflyter er du mest begeistret for å implementere?
Ressurser:
📌 Agentic Architectures gratis e-bok:
📌 Blogginnlegg om agentiske arbeidsflyter:

38,09K
Topp
Rangering
Favoritter

