Sono stato profondamente immerso nell'IA (apprendimento automatico all'epoca...) dal 2007. Ho studiato apprendimento automatico negli Stati Uniti, ho letto la maggior parte dei libri, ho ascoltato ogni podcast. Niente mi ha scioccato come il recente libro + intervista di Roman Yampolskiy. 🧵
la sua opinione è rara e profonda: costruire un'intelligenza artificiale superintelligente (ASI) non è solo rischioso, è praticamente garantita l'estinzione.
la capacità è risolta (calcolo + dati = intelligenza artificiale più intelligente). la sicurezza non è risolta. e il divario tra i due cresce ogni giorno.
i mercati delle previsioni + i leader dei laboratori affermano che l'AGI potrebbe arrivare entro il 2027. La superintelligenza seguirà probabilmente automaticamente. Non siamo pronti.
roman prevede non un 10% di disoccupazione, ma quasi totale (>99%+). sia il lavoro cognitivo che quello fisico saranno sostituiti. la riqualificazione non servirà a nulla se tutti i lavori sono automatizzabili.
"le "guardrails" sono cerotti. sistemi più intelligenti li aggirano. staccare? fantasia. non stacchi la spina a qualcosa che ti supera, è essa a staccare la tua."
il rischio di estinzione non ha nemmeno bisogno di asi. La bioassistenza dell'IA potrebbe fornire a un cattivo attore strumenti per danni su scala civile.
le dinamiche della corsa sono rotte: una volta che l'asi è attivato, non importa chi l'ha costruito. Entrambi i lati perdono.
la chiamata di roman: fermati asi. mantieni l'IA ristretta per problemi reali. smettila di inseguire sistemi "divini" che non possiamo allineare o controllare.
2,64K