Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jeg har vært dypt inne i AI (maskinlæring den gang...) siden 2007. studerte maskinlæring i USA, leste de fleste bøker, lyttet til hver podcast. Ingenting sjokkerte meg som Roman Yampolskiys nylige bok + intervju. 🧵
Hans oppfatning er sjelden + dyp: Å bygge kunstig superintelligens (ASI) er ikke bare risikabelt, det er i utgangspunktet garantert utryddelse.
Kapasiteten er løst (beregning + data = smartere AI). Sikkerheten er ikke løst. og gapet mellom de to vokser hver dag.
Prognosemarkeder + laboratorieledere sier at AGI kan komme innen 2027. Superintelligens følger sannsynligvis automatisk. Vi er ikke klare.
Roman spår ikke 10 % arbeidsledighet, men nesten total (>99 %+). både kognitiv + fysisk arbeidskraft erstattet. Omskolering hjelper ikke hvis alle jobber er automatiserbare.
"Rekkverk" er plaster. smartere systemer går rundt dem. Koble? fantasi. du trekker ikke ut støpselet på noe som overlister deg, det trekker ditt.
Utryddelsesrisiko trenger ikke engang asi. AI-assistert bio kan gi en dårlig aktør verktøy for skade på sivilisasjonsskala.
Rasedynamikken er ødelagt: Når ASI er slått på, spiller det ingen rolle hvem som har bygget den. Begge sider taper.
Romans oppfordring: Pause asi. Hold smal AI for reelle problemer. Slutt å jage "gudelignende" systemer vi ikke kan justere eller kontrollere.
2,65K
Topp
Rangering
Favoritter

