Sundar Pichai, CEO di Google, ha recentemente ammesso qualcosa di sorprendente (Salva questo). Google non comprende più appieno come funzionano i propri sistemi di intelligenza artificiale. Questo rappresenta un cambiamento fondamentale nel modo in cui si sta sviluppando l'IA in questo momento. Quando gli ingegneri di Google addestrano questi enormi modelli di IA, non codificano a mano ogni comportamento come nei vecchi software. Invece, forniscono all'IA miliardi di dati e la lasciano scoprire i modelli da sola. Una volta che questi modelli diventano incredibilmente grandi e complessi, iniziano a fare cose che nessuno ha programmato esplicitamente. L'IA di Google ha imparato a comprendere e tradurre il bengalese, una lingua su cui non è mai stata specificamente addestrata. Questa è la parte strana, il sistema l'ha capito da solo. Questo fenomeno è chiamato comportamento emergente. Accade perché quando si scala un modello a miliardi di parametri, qualcosa cambia. A una certa soglia, questi modelli sviluppano improvvisamente capacità che sembrano quasi intuitive. Iniziano a ragionare su problemi complessi, a lavorare in lingue che non dovrebbero conoscere, a risolvere compiti per cui non sono mai stati addestrati. È come se l'IA stesse insegnando a se stessa. Il problema centrale è la disconnessione tra capacità e comprensione. Google ha distribuito sistemi di IA a milioni di persone sapendo di non avere una mappa completa di come questi sistemi raggiungano le loro conclusioni. ...