Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ecco la versione più lunga del nostro articolo su Nature.
Il nostro argomento è semplice: l'approssimazione statistica non è la stessa cosa dell'intelligenza.
Punteggi di riferimento elevati spesso dicono molto poco su come si comportano i LLM in situazioni di novità, incertezze o obiettivi in cambiamento.
Ancora più importante, comportamenti simili possono derivare da processi fondamentalmente diversi. In un altro articolo, abbiamo identificato sette linee di frattura epistemologica tra umani e LLM.
Ad esempio, i LLM non hanno una rappresentazione interna di ciò che è vero. Spesso generano contraddizioni sicure, specialmente in interazioni più lunghe, perché non tengono traccia di ciò che è realmente vero.
Un altro esempio. Sì, i LLM hanno risolto alcuni problemi matematici aperti, ma questi casi coinvolgono tipicamente l'applicazione di metodi noti a problemi ben definiti. I LLM non possono inventare nulla che sia veramente nuovo e vero allo stesso tempo, perché mancano della macchina epistemica per determinare ciò che è vero.
Niente di tutto ciò significa che i LLM siano inutili. Al contrario: sono straordinariamente utili.
Ma dobbiamo essere cauti riguardo a ciò che sono e a ciò che non sono.
Produrre testo plausibile non è la stessa cosa che comprendere.
La previsione statistica non è la stessa cosa dell'intelligenza.
Quindi, nonostante l'hype da parte dei soliti sospetti, l'AGI non è stata raggiunta.
*
articolo nella prima risposta
Insieme a @Walter4C e @GaryMarcus

Principali
Ranking
Preferiti
