Tady je delší verze našeho článku v Nature. Náš argument je jednoduchý: statistická aproximace není totéž co inteligence. Silná benchmarková skóre často vypovídají jen velmi málo o tom, jak se LLM chovají při novotě, nejistotě nebo měnících se cílech. Ještě důležitější je, že podobné chování může vzniknout z zásadně odlišných procesů. V jiném článku jsme identifikovali sedm epistemologických zlomových linií mezi lidmi a LLM. Například LLM nemají žádnou vnitřní reprezentaci toho, co je pravda. Často vytvářejí sebevědomé rozpory, zejména při delších interakcích, protože nesledují, co je skutečně pravda. Další příklad. Ano, LLM vyřešily některé otevřené matematické problémy, ale tyto případy obvykle zahrnují aplikaci známých metod na dobře definované problémy. LLM nemohou vynalézt nic, co je skutečně nové a zároveň pravdivé, protože jim chybí epistemický mechanismus k určení, co je pravda. To ale neznamená, že by LLM byly k ničemu. Právě naopak: jsou mimořádně užitečné. Ale měli bychom být opatrní ohledně toho, co jsou a co nejsou. Vytvořit věrohodný text není totéž co porozumění. Statistická predikce není totéž co inteligence. Takže navzdory hypeu od obvyklých podezřelých nebylo AGI dosaženo. * Papír v první odpovědi Joint s @Walter4C a @GaryMarcus