NY forskning från Stanford. AGI-debatten fastnar i en falsk dikotomi. Position ett: skala LLM:er och intelligens framträder. Position två: LLM:er är mönstermatchare oförmögna att resonera, en återvändsgränd. Denna artikel argumenterar för en tredje position: Substrat plus Koordination. LLM:er är det nödvändiga System-1-mönsterarkivet. Den saknade komponenten är ett System-2-koordinationslager som väljer, begränsar och binder dessa mönster till externa mål. Författaren menar att den viktigaste insikten kommer från en fiskemetafor. Havet är modellens enorma latenta kunskap. Kastning utan bete ger den maximala sannolikheten som före: generiska, vanliga utfall. Kritiker som observerar hallucinationer ser inte ett trasigt system. De ser en obeveklig ensemble. Intelligent beteende kräver lockbete och filtrering. Artikeln formaliserar detta via UCCT, en teori där resonemang uppstår som en fasövergång. Tre faktorer styr skiftet: effektivt stöd (betestäthet som attraherar målkoncept), representationsmismatch (hur mycket föregående motstånd) och en adaptiv förankringsbudget (kostnaden för kontext). När förankringsstyrkan korsar en tröskel växlar beteendet från hallucination till målinriktad kontroll. Två exempel i sitt sammanhang kan övervinna aritmetik som lärs från miljarder tokens. Övergången är diskret, inte gradvis. Samordning är en flaskhals i moderna AI-system. MACI implementerar detta samordningslager: beteendemodulerad debatt mellan agenter, sokratisk bedömning som filtrerar illa formulerade argument, och transaktionsminne som upprätthåller tillstånd över resonemangsepisoder. Läs artikeln om agentisk kontextingenjörskonst för idéer om minnesdelen. Vägen till AGI går genom LLM:er, inte runt dem. Frågan är inte om mönsterarkiv är tillräckliga. Det är vilka samordningsmekanismer som kan omvandla mönsterkapacitet till pålitlig, verifierbar resonemang. Papper: Lär dig att bygga effektiva AI-agenter i vår akademi: