こちらが私たちのNatureに関する記事の長めバージョンです。 私たちの主張はシンプルです:統計的近似は知能とは同じではありません。 強いベンチマークスコアは、LLMが新しさや不確実性、目標の変化の中でどのように振る舞うかについてほとんど示していません。 さらに重要なのは、似たような行動が根本的に異なるプロセスから生じることがあるということです。別の論文では、人間とLLMの間に7つの認識論的断層線を特定しました。 例えば、LLMには何が真であるかの内部表現がありません。特に長期的なやり取りでは、実際の真実を追跡しないため、しばしば自信のある矛盾を生み出します。 もう一つの例です。確かにLLMは未解決の数学的問題もいくつか解決していますが、これらのケースは通常、既知の手法を明確に定義された問題に適用するものです。LLMは、真実を判断する認識論的機構を欠いているため、真に新しく真実であることを同時に発明することはできません。 だからといってLLMが無意味だというわけではありません。むしろ逆で、非常に有用です。 しかし、それらが何であるか、何でないかには注意が必要です。 もっともらしい文章を作ることは理解とは違います。 統計的予測は知能とは異なります。 つまり、いつもの話題にもかかわらず、AGIはまだ達成されていません。 * 最初の返信の紙 @Walter4Cと@GaryMarcusとの結合