Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Вот более длинная версия нашей статьи в Nature.
Наше утверждение простое: статистическая аппроксимация не является тем же самым, что и интеллект.
Сильные показатели по бенчмаркам часто говорят очень мало о том, как LLM ведут себя в условиях новизны, неопределенности или изменяющихся целей.
Что еще более важно, схожие поведения могут возникать из принципиально разных процессов. В другой статье мы выявили семь эпистемологических разломов между людьми и LLM.
Например, у LLM нет внутреннего представления о том, что является истинным. Они часто генерируют уверенные противоречия, особенно в более длительных взаимодействиях, потому что не отслеживают, что на самом деле является истинным.
Еще один пример. Да, LLM решили некоторые открытые математические задачи, но эти случаи обычно связаны с применением известных методов к четко определенным задачам. LLM не могут изобрести ничего по-настоящему нового и истинного одновременно, потому что им не хватает эпистемической машины для определения того, что является истинным.
Ничто из этого не означает, что LLM бесполезны. Напротив: они чрезвычайно полезны.
Но мы должны быть осторожны в том, что они из себя представляют и чем они не являются.
Создание правдоподобного текста не является тем же самым, что и понимание.
Статистическое предсказание не является тем же самым, что и интеллект.
Таким образом, несмотря на шумиху от привычных подозреваемых, AGI не была достигнута.
*
статья в первом ответе
Совместно с @Walter4C и @GaryMarcus

Топ
Рейтинг
Избранное
