Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Oto dłuższa wersja naszego artykułu w Nature.
Nasza argumentacja jest prosta: statystyczne przybliżenie to nie to samo co inteligencja.
Silne wyniki w benchmarkach często niewiele mówią o tym, jak LLM-y zachowują się w obliczu nowości, niepewności czy zmieniających się celów.
Co ważniejsze, podobne zachowania mogą wynikać z fundamentalnie różnych procesów. W innym artykule zidentyfikowaliśmy siedem epistemologicznych linii podziału między ludźmi a LLM-ami.
Na przykład, LLM-y nie mają wewnętrznej reprezentacji tego, co jest prawdziwe. Często generują pewne sprzeczności, zwłaszcza w dłuższych interakcjach, ponieważ nie śledzą tego, co jest naprawdę prawdziwe.
Inny przykład. Tak, LLM-y rozwiązały niektóre otwarte problemy matematyczne, ale te przypadki zazwyczaj polegają na stosowaniu znanych metod do dobrze zdefiniowanych problemów. LLM-y nie mogą wymyślić niczego, co jest naprawdę nowe i prawdziwe jednocześnie, ponieważ brakuje im epistemicznego mechanizmu do określenia, co jest prawdziwe.
Nic z tego nie oznacza, że LLM-y są bezużyteczne. Wręcz przeciwnie: są niezwykle użyteczne.
Ale powinniśmy być ostrożni co do tego, czym są, a czym nie są.
Produkcja wiarygodnego tekstu to nie to samo co rozumienie.
Statystyczne przewidywanie to nie to samo co inteligencja.
Więc pomimo szumu ze strony zwykłych podejrzanych, AGI nie zostało osiągnięte.
*
artykuł w pierwszej odpowiedzi
Wspólnie z @Walter4C i @GaryMarcus

Najlepsze
Ranking
Ulubione
