🚨 Všichni se ptají, proč se AI agenti rozpadnou hned, jak překročíte demo. Tento článek od Google DeepMind, Meta, Amazon a Yale tiše dává nepříjemnou odpověď. Dnešní LLM nerozumují. Reagují. Generují plynulý text token po tokenu, ale neplánují, nereflektují ani nerozhodují, kdy zastavit a přehodnotit. Zní chytře, protože jazyk je jejich silnou stránkou, ne proto, že by jim byl úsudek. Článek tvrdí, že skutečný pokrok přichází z přeměny LLM na agentické uvažovatele. Systémy, které dokážou stanovit cíle, rozdělit je na dílčí cíle, vybírat kroky, hodnotit výsledky a měnit strategii během letu. Formalizují uvažování jako smyčku, nikoli jako podnět: Pozorujte → plánujte → jednat → odrážet → aktualizovat stav → opakovat To je klíčová změna. Místo jednoho dlouhého řetězce myšlenek model udržuje vnitřní stav úkolu. Rozhoduje, na co myslet dál, ne jen jak větu dokončit. Proto jsou delší CoT stagnace. Dostanete více slov, ne lepší rozhodnutí. Jeden z nejostřejších poznatků: uvažování se zhroutí, když se smísí kontrola a uvažování. Když se jediný prompt snaží naplánovat, provést, kritizovat a dokončit, chyby se tiše hromadí. Agentické systémy mají oddělené role. Plánování je explicitní. Provedení je zaměřeno na rozsah. Reflexe je zpožděná a strukturovaná. Článek ukazuje dramatické zisky pouze tím, že uvádí modely: • explicitní mezilehlé cíle • kontrolní body pro sebehodnocení • povolení opustit špatné cesty...