Il nuovo articolo di Nick Bostrom: > Sviluppare superintelligenza non è come giocare alla roulette russa; è più simile a subire un intervento chirurgico rischioso per una condizione che altrimenti si dimostrerebbe fatale. > Si potrebbe sostenere che se nessuno la costruisce, tutti muoiono. In effetti, la maggior parte delle persone è già morta. Il resto di noi è destinato a seguire entro pochi decenni. Per molte persone—come gli anziani e i gravemente malati—la fine è molto più vicina. Parte della promessa della superintelligenza è che potrebbe cambiare fondamentalmente questa condizione." > Lungo un percorso (rinunciando alla superintelligenza), 170.000 persone muoiono ogni giorno a causa di malattie, invecchiamento e altre tragedie. > La scelta che abbiamo di fronte, quindi, non è tra una base priva di rischi e un'impresa AI rischiosa. È tra diverse traiettorie rischiose, ognuna delle quali ci espone a un diverso insieme di pericoli. > Immagina di curare la malattia di Alzheimer rigenerando i neuroni persi nel cervello del paziente. Immagina di trattare il cancro con terapie mirate che eliminano ogni cellula tumorale ma non causano nessuno degli orribili effetti collaterali della chemioterapia attuale. Immagina di ripristinare articolazioni malate e arterie ostruite a una condizione giovanile e incontaminata. Questi scenari diventano realistici e imminenti con la superintelligenza che guida la nostra scienza. > Supponiamo che la medicina della giovinezza possa ridurre i tassi di mortalità a un livello costante simile a quello attualmente goduto da giovani sani di 20 anni nei paesi sviluppati, il che corrisponde a un'aspettativa di vita di circa 1.400 anni. > Sviluppare superintelligenza aumenta la nostra aspettativa di vita residua a condizione che la probabilità di annientamento indotto dall'AI sia inferiore al 97%.