NOVÝ výzkum ze Stanfordu. Debata o akumulativní inteligenci je zaseknuta na falešné dichotomii. Pozice jedna: škálovat LLM a objevuje se inteligence. Pozice dvě: LLM jsou vzorové vzory neschopné rozumovat, slepá ulička. Tento článek prosazuje třetí stanovisko: Substrát plus koordinace. LLM jsou nezbytným úložištěm vzorů System-1. Chybějící komponentou je koordinační vrstva System-2, která vybírá, omezuje a váže tyto vzory na vnější cíle. Autor tvrdí, že klíčový poznatek pochází z rybářské metafory. Oceán je rozsáhlé skryté poznání modelu. Házení bez návnady získává maximální pravděpodobnost předtím: obecné, běžné výstupy. Kritici pozorující halucinace nevidí rozbitý systém. Vidí nelákaný návnadový nástup. Inteligentní chování vyžaduje lákání a filtrování. Článek to formalizuje prostřednictvím UCCT, teorie, kde uvažování vzniká jako fázový přechod. Změnu ovlivňují tři faktory: efektivní podpora (hustota návnady přitahující cílové koncepty), reprezentativní nesoulad (jak moc předchozí odolává) a adaptivní rozpočet na ukotvení (náklady na kontext). Když síla ukotvení překročí určitý práh, chování se změní z halucinace na cílově orientovanou kontrolu. Dva příklady v kontextu mohou přepisovat aritmetiku naučenou z miliard tokenů. Přechod je diskrétní, ne postupný. Koordinace je úzkým hrdlem v moderních AI systémech. MACI implementuje tuto koordinační vrstvu: behaviorálně modulovanou debatu mezi agenty, sokratovské posuzování, které filtruje špatně formulované argumenty, a transakční paměť, která udržuje stav napříč epizodami uvažování. Přečtěte si článek o agentickém kontextovém inženýrství pro nápady na paměťovou část. Cesta k agilnímu rozlišení vede přes LLM, ne kolem nich. Otázkou není, zda jsou vzory repozitáře dostatečné. Je to způsob, jak koordinační mechanismy mohou proměnit schopnost vzorců v spolehlivé, ověřitelné uvažování. Článek: Naučte se vytvářet efektivní AI agenty v naší akademii: