Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Modele AI stają się coraz silniejsze, ale ich pewność wciąż rośnie szybciej niż ich pewność.
Więcej parametrów rozszerza to, o czym system może mówić, a nie to, co może naprawdę zweryfikować. Przestrzeń możliwych odpowiedzi rośnie szybciej niż grunt pod tymi odpowiedziami. Model wciąż mówi płynnie, nawet gdy przekracza to, co dane mogą wspierać.
Halucynacje utrzymują się, ponieważ podstawowy akt się nie zmienił. Model wciąż przewiduje następny token w wysokiej rozdzielczości. Skalowanie sprawia, że zgadywanie staje się płynniejsze, a nie bardziej ugruntowane. Gdy model dryfuje poza części świata, które naprawdę rozumie, kontynuuje z tą samą łatwością i rytmem. Język staje się bardziej dopracowany. Błędy stają się trudniejsze do zauważenia.
To, co się poprawia, to nie prawda. To, co się poprawia, to perswazja. Dlatego silniejsze modele wydają się bardziej dokładne, nawet gdy nie są. Błędy wyglądają jak wgląd, dopóki nie zbadamy szczegółów. Im lepszy model w kształtowaniu argumentu, tym łatwiej zapomnieć, że argument nigdy nie był poparty źródłem prawdy.
Droga naprzód polega na budowaniu systemów wokół modelu, które ograniczają dryf. Wyszukiwanie, aby zakotwiczyć odpowiedź. Pętle sprzężenia zwrotnego, aby utrzymać go w uczciwości. Barierki, które zmuszają model do powrotu do tego, co jest naprawdę znane.
Sama moc nie usunie halucynacji. Tylko ugruntowanie to zrobi.
Najlepsze
Ranking
Ulubione

