Her er den lengre versjonen av vår Nature-artikkel. Vårt argument er enkelt: statistisk tilnærming er ikke det samme som intelligens. Sterke referansepoeng sier ofte svært lite om hvordan LLM-er oppfører seg under nyhet, usikkerhet eller skiftende mål. Enda viktigere er det at lignende atferd kan oppstå fra fundamentalt forskjellige prosesser. I en annen artikkel identifiserte vi syv epistemologiske skillelinjer mellom mennesker og LLM-er. For eksempel har LLM-er ingen intern representasjon av hva som er sant. De skaper ofte selvsikre motsetninger, spesielt i lengre interaksjoner, fordi de ikke følger med på hva som faktisk er sant. Et annet eksempel. Ja, LLM-er har løst noen åpne matematiske problemer, men disse tilfellene innebærer vanligvis å anvende kjente metoder på veldefinerte problemer. LLM-er kan ikke oppfinne noe som er virkelig nytt og sant samtidig, fordi de mangler det epistemiske maskineriet som trengs for å avgjøre hva som er sant. Ingenting av dette betyr at LLM-er er ubrukelige. Tvert imot: de er usedvanlig nyttige. Men vi bør være forsiktige med hva de er og hva de ikke er. Å produsere plausibel tekst er ikke det samme som å forstå. Statistisk prediksjon er ikke det samme som intelligens. Så til tross for hypen fra de vanlige mistenkte, har ikke AGI blitt oppnådd. * Artikkel i det første svaret Felles med @Walter4C og @GaryMarcus