🚨 Alla frågar hela tiden varför AI-agenter faller sönder så fort man går förbi demon. Denna artikel från Google DeepMind, Meta, Amazon och Yale ger tyst det obekväma svaret. Dagens LLM:er resonerar inte. De reagerar. De genererar flytande text token för token, men de planerar inte, reflekterar inte eller bestämmer när de ska stanna upp och tänka om. De låter smarta för att språket är deras styrka, inte för att omdöme är det. Artikeln hävdar att verklig framgång kommer från att förvandla LLM:er till agentiska resonerare. System som kan sätta mål, dela upp dem i delmål, välja handlingar, utvärdera utfall och ändra strategi mitt i flygningen. De formaliserar resonemanget som en loop, inte en prompt: Observera → plan → agera → återspegla → uppdatera tillståndet → upprepa Detta är nyckelskiftet. Istället för en lång tankekedja upprätthåller modellen ett internt uppgiftstillstånd. Den bestämmer vad den ska tänka på härnäst, inte bara hur meningen ska avslutas. Det är därför längre CoT-platåer. Du får fler ord, inte bättre beslut. En av de skarpaste insikterna: resonemanget kollapsar när kontroll och resonemang blandas. När en enda prompt försöker planera, genomföra, kritisera och slutföra felen tyst. Agentiska system skiljer åt roller. Planering är explicit. Genomförandet är avgränsat. Reflektion är fördröjd och strukturerad. Artikeln visar dramatiska framsteg bara genom att ge modeller: • explicita mellanmål • kontrollpunkter för självutvärdering • tillstånd att överge dåliga stigar...