🚨 Alle spør stadig hvorfor AI-agenter faller sammen i det øyeblikket du går forbi demoen. Denne artikkelen fra Google DeepMind, Meta, Amazon og Yale gir stille det ubehagelige svaret. Dagens LLM-er resonerer ikke. De reagerer. De genererer flytende tekst token for token, men de planlegger ikke, reflekterer ikke eller bestemmer når de skal stoppe opp og tenke seg om. De høres smarte ut fordi språk er deres styrke, ikke fordi dømmekraft er det. Artikkelen argumenterer for at reell fremgang kommer av å gjøre LLM-er til agentiske resonnerere. Systemer som kan sette mål, dele dem opp i delmål, velge handlinger, evaluere resultater og endre strategi underveis. De formaliserer resonnement som en løkke, ikke en prompt: Observer → plan → handle → reflektere → oppdatere tilstanden → gjenta Dette er nøkkelskiftet. I stedet for én lang tankekjede opprettholder modellen en intern oppgavetilstand. Den bestemmer hva den skal tenke på videre, ikke bare hvordan den skal avslutte setningen. Det er derfor lengre CoT-platåer. Du får flere ord, ikke bedre valg. En av de skarpeste innsiktene: resonnement kollapser når kontroll og resonnement blandes. Når en enkelt prompt prøver å planlegge, gjennomføre, kritisere og fullføre, hoper feilene seg stille opp. Agentiske systemer skiller roller. Planlegging er eksplisitt. Gjennomføringen er avgrenset. Refleksjon er forsinket og strukturert. Artikkelen viser dramatiske gevinster bare ved å gi modeller: • eksplisitte mellomliggende mål • sjekkpunkter for selvevaluering • tillatelse til å forlate dårlige stier...