Вот более длинная версия нашей статьи в Nature. Наше утверждение простое: статистическая аппроксимация не является тем же самым, что и интеллект. Сильные показатели по бенчмаркам часто говорят очень мало о том, как LLM ведут себя в условиях новизны, неопределенности или изменяющихся целей. Что еще более важно, схожие поведения могут возникать из принципиально разных процессов. В другой статье мы выявили семь эпистемологических разломов между людьми и LLM. Например, у LLM нет внутреннего представления о том, что является истинным. Они часто генерируют уверенные противоречия, особенно в более длительных взаимодействиях, потому что не отслеживают, что на самом деле является истинным. Еще один пример. Да, LLM решили некоторые открытые математические задачи, но эти случаи обычно связаны с применением известных методов к четко определенным задачам. LLM не могут изобрести ничего по-настоящему нового и истинного одновременно, потому что им не хватает эпистемической машины для определения того, что является истинным. Ничто из этого не означает, что LLM бесполезны. Напротив: они чрезвычайно полезны. Но мы должны быть осторожны в том, что они из себя представляют и чем они не являются. Создание правдоподобного текста не является тем же самым, что и понимание. Статистическое предсказание не является тем же самым, что и интеллект. Таким образом, несмотря на шумиху от привычных подозреваемых, AGI не была достигнута. * статья в первом ответе Совместно с @Walter4C и @GaryMarcus