Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Všichni se ptají, proč se AI agenti rozpadnou hned, jak překročíte demo.
Tento článek od Google DeepMind, Meta, Amazon a Yale tiše dává nepříjemnou odpověď.
Dnešní LLM nerozumují. Reagují.
Generují plynulý text token po tokenu, ale neplánují, nereflektují ani nerozhodují, kdy zastavit a přehodnotit. Zní chytře, protože jazyk je jejich silnou stránkou, ne proto, že by jim byl úsudek.
Článek tvrdí, že skutečný pokrok přichází z přeměny LLM na agentické uvažovatele. Systémy, které dokážou stanovit cíle, rozdělit je na dílčí cíle, vybírat kroky, hodnotit výsledky a měnit strategii během letu.
Formalizují uvažování jako smyčku, nikoli jako podnět:
Pozorujte → plánujte → jednat → odrážet → aktualizovat stav → opakovat
To je klíčová změna. Místo jednoho dlouhého řetězce myšlenek model udržuje vnitřní stav úkolu. Rozhoduje, na co myslet dál, ne jen jak větu dokončit.
Proto jsou delší CoT stagnace. Dostanete více slov, ne lepší rozhodnutí.
Jeden z nejostřejších poznatků: uvažování se zhroutí, když se smísí kontrola a uvažování. Když se jediný prompt snaží naplánovat, provést, kritizovat a dokončit, chyby se tiše hromadí.
Agentické systémy mají oddělené role.
Plánování je explicitní.
Provedení je zaměřeno na rozsah.
Reflexe je zpožděná a strukturovaná.
Článek ukazuje dramatické zisky pouze tím, že uvádí modely:
• explicitní mezilehlé cíle
• kontrolní body pro sebehodnocení
• povolení opustit špatné cesty...

Top
Hodnocení
Oblíbené
