den største AI-flaskehalsen akkurat nå er minne ... Tenk på det: > åpner du LLM > du må forklare konteksten din på nytt hver gang > eller bruk 30 minutter på å sette opp et prosjekt > eller håper det innebygde minnet faktisk fungerer (det gjør det ikke) Og dette er den nåværende tilstanden i markedet ... - ChatGPT har en forferdelig tilnærming - Claude er bedre, men treg - Tvillingene kan ha en god sjanse til det, og venter på å se om de knekker dette den beste løsningen akkurat nå er minne-MCP-er med tilkoblede kunnskapsbaser men det er fortsatt eksternt ... fortsatt manuell... fortsatt friksjon Det virkelige gjennombruddet kommer når: jeg åpner min LLM, jeg spør naturlig, og den kjenner bare konteksten min uten at jeg tenker på det Det er da det vil føles som om vi faktisk har intelligens på neste nivå