Ne îndreptăm spre o distopie stabilă? M-am gândit la modul în care AI-ul va modela societatea și un anumit scenariu mi se pare un rezultat cu o probabilitate ridicată. Iată cum s-ar putea desfășura: • AI automatizează tot mai mult munca umană • Randamentele acestei automatizări se întorc către deținătorii de capital, făcându-i mai bogați • Pe măsură ce veniturile maselor scad, guvernul ignoră/aboliește impozitul pe venit, ci impozitează veniturile/averea corporative pentru nevoile sale • Bogații se izolează (așa cum fac) și folosesc drone/roboți cu AI-ul pentru a se proteja • Aceasta ia toate puterile de la mase - > guvernele acordă mai puțină atenție maselor, pe măsură ce contribuția lor la taxe scade și nici măcar nu pot să se răzvrătească, confruntându-se cu forțele de securitate AI • O formă minimă de RBU este oferită maselor în numele moralității • Toată mobilitatea socială viitoare se oprește, iar structurile actuale de putere sunt înghețate pentru totdeauna Pe scurt, puternicii și bogații creează o societate paralelă, iar mobilitatea socială se oprește pentru că deținătorii de capital / intermediarii de putere controlează AI-ul care face munca economică (împiedicând pe oricine altcineva să urce). Se poate argumenta că acest lucru s-a întâmplat treptat, dar astăzi masele încă dețin puterea datorită contribuției lor la muncă și capacității de a se răzvrăti fizic împotriva elitei. Dar AI-ul are potențialul de a schimba acest echilibru de putere și se pare că acolo ne îndreptăm, din păcate. /sindicat
Reține că acest scenariu este probabil implicit, dar nu este înghețat în cuie. Cred că umanitatea încă are o șansă să nu cedeze puterea elitei și/sau AI-ului. O cale de ieșire este să difuzezi AI suficient în open source încât accesul la ea să fie democratic (dar legile de scalare sugerează că modelele mai mari pot întotdeauna să le depășească pe cele mai mici!). Un altceva, desigur, este oprirea dezvoltării AI (dar nu cred că se va întâmpla; oamenii sunt prea curioși ca să se oprească). Ce părere aveți despre acest scenariu? Plauzibil? Cum ne asigurăm că acest lucru nu se întâmplă?
174