Ecco la versione più lunga del nostro articolo su Nature. Il nostro argomento è semplice: l'approssimazione statistica non è la stessa cosa dell'intelligenza. Punteggi di riferimento elevati spesso dicono molto poco su come si comportano i LLM in situazioni di novità, incertezze o obiettivi in cambiamento. Ancora più importante, comportamenti simili possono derivare da processi fondamentalmente diversi. In un altro articolo, abbiamo identificato sette linee di frattura epistemologica tra umani e LLM. Ad esempio, i LLM non hanno una rappresentazione interna di ciò che è vero. Spesso generano contraddizioni sicure, specialmente in interazioni più lunghe, perché non tengono traccia di ciò che è realmente vero. Un altro esempio. Sì, i LLM hanno risolto alcuni problemi matematici aperti, ma questi casi coinvolgono tipicamente l'applicazione di metodi noti a problemi ben definiti. I LLM non possono inventare nulla che sia veramente nuovo e vero allo stesso tempo, perché mancano della macchina epistemica per determinare ciò che è vero. Niente di tutto ciò significa che i LLM siano inutili. Al contrario: sono straordinariamente utili. Ma dobbiamo essere cauti riguardo a ciò che sono e a ciò che non sono. Produrre testo plausibile non è la stessa cosa che comprendere. La previsione statistica non è la stessa cosa dell'intelligenza. Quindi, nonostante l'hype da parte dei soliti sospetti, l'AGI non è stata raggiunta. * articolo nella prima risposta Insieme a @Walter4C e @GaryMarcus