NOWE badania z Uniwersytetu Stanforda. Debata na temat AGI utknęła w fałszywej dychotomii. Pozycja pierwsza: skaluj LLM-y, a inteligencja się pojawi. Pozycja druga: LLM-y to dopasowujące wzory, które nie są w stanie rozumować, to ślepy zaułek. Ten artykuł argumentuje za trzecią pozycją: Substrat plus Koordynacja. LLM-y są niezbędnym repozytorium wzorców Systemu-1. Brakującym elementem jest warstwa koordynacji Systemu-2, która wybiera, ogranicza i łączy te wzory z zewnętrznymi celami. Autor twierdzi, że kluczowy wgląd pochodzi z metafory wędkarskiej. Ocean to ogromna ukryta wiedza modelu. Rzucanie bez przynęty przynosi maksymalne prawdopodobieństwo: ogólne, powszechne wyniki. Krytycy obserwujący halucynacje nie widzą zepsutego systemu. Widzą rzut bez przynęty. Inteligentne zachowanie wymaga przynęty i filtrowania. Artykuł formalizuje to za pomocą UCCT, teorii, w której rozumowanie pojawia się jako przejście fazowe. Trzy czynniki rządzą tym przejściem: skuteczne wsparcie (gęstość przynęty przyciągająca docelowe koncepcje), niedopasowanie reprezentacyjne (jak bardzo wcześniejsze doświadczenie się opiera) oraz adaptacyjny budżet zakotwiczenia (koszt kontekstu). Gdy siła zakotwiczenia przekracza próg, zachowanie zmienia się z halucynacji na kontrolę ukierunkowaną na cel. Dwa przykłady w kontekście mogą nadpisać arytmetykę wyuczoną z miliardów tokenów. Przejście jest dyskretne, a nie stopniowe. Koordynacja jest wąskim gardłem w nowoczesnych systemach AI. MACI wdraża tę warstwę koordynacji: debata modulowana zachowaniem między agentami, sędziowanie sokratejskie, które filtruje źle postawione argumenty, oraz pamięć transakcyjna, która utrzymuje stan w różnych epizodach rozumowania. Przeczytaj artykuł na temat inżynierii kontekstu agentów, aby uzyskać pomysły na część pamięci. Droga do AGI prowadzi przez LLM-y, a nie wokół nich. Pytanie nie brzmi, czy repozytoria wzorców są wystarczające. Chodzi o to, które mechanizmy koordynacji mogą przekształcić zdolność wzorców w niezawodne, weryfikowalne rozumowanie. Artykuł: Naucz się budować skuteczne agenty AI w naszej akademii: