Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NOWE badania z Uniwersytetu Stanforda.
Debata na temat AGI utknęła w fałszywej dychotomii.
Pozycja pierwsza: skaluj LLM-y, a inteligencja się pojawi.
Pozycja druga: LLM-y to dopasowujące wzory, które nie są w stanie rozumować, to ślepy zaułek.
Ten artykuł argumentuje za trzecią pozycją: Substrat plus Koordynacja.
LLM-y są niezbędnym repozytorium wzorców Systemu-1. Brakującym elementem jest warstwa koordynacji Systemu-2, która wybiera, ogranicza i łączy te wzory z zewnętrznymi celami.
Autor twierdzi, że kluczowy wgląd pochodzi z metafory wędkarskiej. Ocean to ogromna ukryta wiedza modelu. Rzucanie bez przynęty przynosi maksymalne prawdopodobieństwo: ogólne, powszechne wyniki. Krytycy obserwujący halucynacje nie widzą zepsutego systemu. Widzą rzut bez przynęty.
Inteligentne zachowanie wymaga przynęty i filtrowania. Artykuł formalizuje to za pomocą UCCT, teorii, w której rozumowanie pojawia się jako przejście fazowe. Trzy czynniki rządzą tym przejściem: skuteczne wsparcie (gęstość przynęty przyciągająca docelowe koncepcje), niedopasowanie reprezentacyjne (jak bardzo wcześniejsze doświadczenie się opiera) oraz adaptacyjny budżet zakotwiczenia (koszt kontekstu).
Gdy siła zakotwiczenia przekracza próg, zachowanie zmienia się z halucynacji na kontrolę ukierunkowaną na cel. Dwa przykłady w kontekście mogą nadpisać arytmetykę wyuczoną z miliardów tokenów. Przejście jest dyskretne, a nie stopniowe.
Koordynacja jest wąskim gardłem w nowoczesnych systemach AI.
MACI wdraża tę warstwę koordynacji: debata modulowana zachowaniem między agentami, sędziowanie sokratejskie, które filtruje źle postawione argumenty, oraz pamięć transakcyjna, która utrzymuje stan w różnych epizodach rozumowania.
Przeczytaj artykuł na temat inżynierii kontekstu agentów, aby uzyskać pomysły na część pamięci.
Droga do AGI prowadzi przez LLM-y, a nie wokół nich. Pytanie nie brzmi, czy repozytoria wzorców są wystarczające. Chodzi o to, które mechanizmy koordynacji mogą przekształcić zdolność wzorców w niezawodne, weryfikowalne rozumowanie.
Artykuł:
Naucz się budować skuteczne agenty AI w naszej akademii:

Najlepsze
Ranking
Ulubione
