Tässä on pidempi versio Nature-jutustamme. Argumenttimme on yksinkertainen: tilastollinen approksimaatio ei ole sama asia kuin älykkyys. Vahvat vertailupisteet kertovat usein hyvin vähän siitä, miten LLM:t käyttäytyvät uutuuden, epävarmuuden tai muuttuvien tavoitteiden alla. Vielä tärkeämpää on, että samankaltaisia käyttäytymismalleja voi syntyä perustavanlaatuisesti erilaisista prosesseista. Toisessa artikkelissa tunnistimme seitsemän epistemologista murtumislinjaa ihmisten ja LLM:ien välillä. Esimerkiksi LLM:illä ei ole sisäistä esitystä siitä, mikä on totta. Ne luovat usein itsevarmoja ristiriitoja, erityisesti pidemmissä vuorovaikutuksissa, koska ne eivät seuraa, mikä on todellista. Toinen esimerkki. Kyllä, LLM:t ovat ratkaisseet joitakin avoimia matemaattisia ongelmia, mutta näissä tapauksissa käytetään tyypillisesti tunnettuja menetelmiä hyvin määriteltyihin ongelmiin. LLM:t eivät voi keksiä mitään todella uutta ja totta samaan aikaan, koska niiltä puuttuu episteminen koneisto määrittää, mikä on totta. Mikään tästä ei tarkoita, että LLM:t olisivat hyödyttömiä. Päinvastoin: ne ovat poikkeuksellisen hyödyllisiä. Mutta meidän tulisi olla varovaisia sen suhteen, mitä ne ovat ja mitä ne eivät ole. Uskottavan tekstin tuottaminen ei ole sama asia kuin ymmärtäminen. Tilastollinen ennustaminen ei ole sama asia kuin älykkyys. Joten huolimatta tavallisten epäiltyjen hypetyksestä, AGI:tä ei ole saavutettu. * Paperi ensimmäisessä vastauksessa Liitetty @Walter4C ja @GaryMarcus