Iată versiunea mai lungă a articolului nostru din Nature. Argumentul nostru este simplu: aproximația statistică nu este același lucru cu inteligența. Scorurile de referință puternice spun adesea foarte puțin despre modul în care LLM-urile se comportă în condiții de noutate, incertitudine sau obiective în schimbare. Și mai important, comportamente similare pot apărea din procese fundamental diferite. Într-un alt articol, am identificat șapte linii de fractură epistemologice între oameni și LLM-uri. De exemplu, LLM-urile nu au o reprezentare internă a ceea ce este adevărat. Adesea generează contradicții încrezătoare, mai ales în interacțiuni mai lungi, pentru că nu urmăresc ceea ce este cu adevărat adevărat. Un alt exemplu. Da, LLM-urile au rezolvat unele probleme matematice deschise, dar aceste cazuri implică de obicei aplicarea unor metode cunoscute la probleme bine definite. LLM-urile nu pot inventa ceva cu adevărat nou și adevărat în același timp, pentru că le lipsește mecanismul epistemic care să determine ce este adevărat. Nimic din toate acestea nu înseamnă că LLM-urile sunt inutile. Din contră: sunt extraordinar de utile. Dar ar trebui să fim atenți la ce sunt și ce nu sunt. A produce un text plauzibil nu este același lucru cu a înțelege. Predicția statistică nu este același lucru cu inteligența. Așadar, în ciuda hype-ului din partea suspecților obișnuiți, AGI nu a fost realizată. * Lucrarea în primul răspuns Îmbinare cu @Walter4C și @GaryMarcus