Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Her er den lengre versjonen av vår Nature-artikkel.
Vårt argument er enkelt: statistisk tilnærming er ikke det samme som intelligens.
Sterke referansepoeng sier ofte svært lite om hvordan LLM-er oppfører seg under nyhet, usikkerhet eller skiftende mål.
Enda viktigere er det at lignende atferd kan oppstå fra fundamentalt forskjellige prosesser. I en annen artikkel identifiserte vi syv epistemologiske skillelinjer mellom mennesker og LLM-er.
For eksempel har LLM-er ingen intern representasjon av hva som er sant. De skaper ofte selvsikre motsetninger, spesielt i lengre interaksjoner, fordi de ikke følger med på hva som faktisk er sant.
Et annet eksempel. Ja, LLM-er har løst noen åpne matematiske problemer, men disse tilfellene innebærer vanligvis å anvende kjente metoder på veldefinerte problemer. LLM-er kan ikke oppfinne noe som er virkelig nytt og sant samtidig, fordi de mangler det epistemiske maskineriet som trengs for å avgjøre hva som er sant.
Ingenting av dette betyr at LLM-er er ubrukelige. Tvert imot: de er usedvanlig nyttige.
Men vi bør være forsiktige med hva de er og hva de ikke er.
Å produsere plausibel tekst er ikke det samme som å forstå.
Statistisk prediksjon er ikke det samme som intelligens.
Så til tross for hypen fra de vanlige mistenkte, har ikke AGI blitt oppnådd.
*
Artikkel i det første svaret
Felles med @Walter4C og @GaryMarcus

Topp
Rangering
Favoritter
