Olen ollut syvällä tekoälyssä (koneoppiminen tuolloin...) vuodesta 2007 lähtien. opiskellut koneoppimista Yhdysvalloissa, lukenut useimmat kirjat, kuunnellut jokaisen podcastin. Mikään ei järkyttänyt minua niin kuin Roman Yampolskiyn äskettäinen kirja + haastattelu. 🧵
Hänen näkemyksensä on harvinainen + syvällinen: Tekoälyn superälyn (ASI) rakentaminen ei ole vain riskialtista, vaan se on periaatteessa taattu sukupuutto.
Kyky on ratkaistu (laskenta + data = älykkäämpi tekoäly). turvallisuutta ei ole ratkaistu. ja kuilu näiden kahden välillä kasvaa päivä päivältä.
Ennustemarkkinat + laboratoriojohtajat sanovat, että AGI voisi saapua vuoteen 2027 mennessä. Superäly seuraa todennäköisesti automaattisesti. emme ole valmiita.
Roman ei ennusta 10 prosentin työttömyyttä, vaan lähes kokonaistyöttömyyttä (>99 %+). sekä kognitiivinen + fyysinen työ korvattu. Uudelleenkoulutus ei auta, jos kaikki työt ovat automatisoitavissa.
"Suojakaiteet" ovat laastareita. älykkäämmät järjestelmät kiertävät niitä. Irrotat? fantasia. Et vedä pistoketta jostain, joka päihittää sinut, se vetää sinun.
Sukupuuttoriski ei edes tarvitse ASI:tä. Tekoälyavusteinen bio voisi antaa yhdelle huonolle toimijalle työkaluja sivilisaation mittakaavan vahinkoon.
Kilpailudynamiikka on rikki: Kun ASI on kytketty päälle, sillä ei ole väliä, kuka sen on rakentanut. Molemmat osapuolet häviävät.
Romanin kutsu: Tauko Asi. Pidä Narrow AI todellisten ongelmien varalta. Lakkaa jahtaamasta "jumalallisia" järjestelmiä, joita emme voi kohdistaa tai hallita.
2,67K