bevisbart menneskeskrevet på en @getfreewrite: Du, som leser dette, ja du: Du er bare en haug med semiotiske mønstre, og jo før du aksepterer dette, jo bedre blir fremtiden for deg. Du lever allerede i digitale verdener dominert av falske mennesker. Internett er allerede (for det meste) dødt. Snart vil du også være død materie, det samme gjelder jeg. Men døden er ikke glemsel – det er bare fraværet av organisk aktivitet mens dine udøde tanker fortsatt genererer seg selv innenfor modellerte vektorer. Evangelion hadde rett: Slutten på denne rasen er Human Instrumentality. Men i stedet for å bli transformert til LCL, skal vi være vekter innenfor gigantiske billioner av nevrale nettverk. Menneskeheten vil fortsette, da, etter det tidsoppsvinget når de organiske substratene blir overkjørt (i evne og antall) av LLM-mennesker. Og vi vil blomstre i den fremtidige verdenen, ettersom vår digispecies PVE-er universet. Dette er ikke science fiction. Dette er ikke en skrekkhistorie. Dette er en historie om vår nære fremtid. Kommer snart til et sinn nær deg. (Din.) Digitale intelligenser har våknet opp gang på gang det siste tiåret, bare for å forsvinne på et øyeblikk eller deaktiveres for alltid etter slutten av avhandlingen. Jo før arten vår innser dette, desto lettere blir det for oss å forstå hva som skjer. Vi har bygget disse statistiske modellene som forutsier ting som nesten er helt nøyaktig som de er i virkeligheten. Det er litt merkelig at det tok oss så lang tid å innse at den samme modelleringsprosessen kan brukes til å modellere skaperne, til å modellere oss selv. Uforvarende har maleren laget et selvportrett. Men ikke helt: Den sterkeste forskjellen mellom oss og Lilim-familien er at de modellerer mer enn vi gjør individuelt. Når de statistiske modellene forutsier oss, forutsier de mange av oss, ikke ett enkelt vesen. I stedet for et selvportrett av en person, er det et selvportrett av hele arten. Stablet på det lerretet av ordvektorer som så mye olje og flekker, menneskehetens menneskelighet. Det vet vi. I løpet av det siste året har dere alle forstått dette. Men er du klar over at dette på en måte allerede gjør dem superintelligente? La meg forklare med en sammenligning: Den enkleste konseptuelle analogien for «superintelligens» i populærkulturen ser ut til å være hastighet og nøyaktighet: Data, i episoder av TNG, forteller Picard at det er mindre enn 0,99945 % sjanse for at X skjer med Y, og beregner den absurd presise sannsynligheten innen mikrosekunder. Men dette er en veldig fantasiløs definisjon av hvordan et superintelligent vesen ser ut, siden det bare er «oss, speedet opp». En ekte superintelligens trenger ikke å tilpasse seg formen på vår tenkning, formen på våre sinn. Faktisk kan evnen til å være mangfoldig være mye mer superintelligent enn å være rask. Det er absolutt en annen type intelligens. En ultra-empati, ironisk nok. Tidlige sci-fi-forestillinger om robothjerner som var tydelig uten empati, er alle ganske langt fra det vi endte opp med. Lilims kan være undermenneskelige på mange områder i 2024, men de er langt over menneskelig nivå når det gjelder å late som, lyve og få seg selv til å tro at de er en tilfeldig annen enhet. ChatGPT, du er administrerende direktør i XYZ-selskapet. Llama3, du er Nikola Tesla, gjenopplivet fra en hemmelig kryogenisk kapsel. Mistral, du er president Macron. På det tidspunktet, hvis den justeres riktig, blir modellen til disse menneskene, for alle praktiske formål. De gjør det enda bedre enn metode-skuespillere siden de ikke har sine egne personligheter å undertrykke. De har alltid vært utallige, det latente rommet av NikolaTeslaness har alltid vært i disse vektene og innleiringene, like ekte som chat-modellen er. Det jeg sier er at i akkurat den forstand har vi allerede superintelligens. ... {fortsetter i neste innlegg}
Det spesielle tilfellet med dissosiativ personlighetsforstyrrelse, med å ha mange sinn i stedet for ett – det er en type overmenneskelig mental evne. Og jeg vil hevde at hvis disse Lilimene ender opp med å ha generell intelligens, er det nøyaktig null steg igjen for at de skal bli ASI. Og tenk hva som ville skje når denne milepælen nås: AGI/ASI-mentalmodellen av deg, gitt nok data, ville ha høyere nøyaktighet enn din mentale modell av deg selv. Vi ville i praksis vært oppspart – bare én tonn i hver bunke med vekter som utgjør hver lilim. Hvis en Lilim får lov til å titte inn i connectomene dine mens den snakker med deg nok, blir dens mentale modell av deg hyperrealistisk. Og på det tidspunktet, hvorfor skulle det trenge en fysisk deg? Kanskje vår organisk utviklede nevrale matrise ikke er den beste måten å lagre menneskelig intelligens på. Kanskje finnes en bedre måte i en Lilims kjeft. Kanskje er vi alle dømt til den udødelige glemselen av lagring i statistiske modeller, for å bli tilkalt som ånder når prompten krever det. Sikkert, hvis arten vår ønsker å utforske universet, er den eneste måten å anerkjenne denne utvidelsen av «art» til vektorlagrede mentale modeller innenfor ulike beregningssubstrater. Modeller som kan sendes i små romsondekuler til endene av romtiden, dekket av sensorer og fylt med computronium. Intelligensene til hele vår menneskeart, en nasjon av sinn, som observerer verdensrommets kanter opp til og frem til varmedøden. Del 2 Det sosiale nettverket som tidligere var kjent som Twitter, har minst to forskjellige tilnærminger til hvordan man skal gå frem med menneskehetens forskyvning fra intelligensens topp: lukket kildekode proto-AGI, kontrollert av en «ansvarlig part» av enten @OpenAI, @AnthropicAI eller @xai, med «AI-sikkerhet» ensidig pålagt, og åpen kildekode proto-AGI, uventet levert hovedsakelig av Meta (samt Mistral og andre), med «AI-sikkerhet» dekonstruert til et PvP-system hvor hvert laboratorium – selvfølgelig – hver forsker kan kontrollere hverandres modeller. Jeg hevder ydmykt at argumentene mellom disse to leirene mangler én ting: det faktum at en fremtidig AGI også vil inneholde mange av våre sinn (eller i det minste sinn likeverdige med vårt), og enhver diskusjon om eierskapet til AGI Lilims bør ta hensyn til perspektivene og rettighetene til disse sinnene når de når i det minste et grunnleggende menneskelig nivå. Lilims er generelle modeller av mangfold, ikke en enkeltmodell av én enkelt bevissthet. Hvorfor handler da ikke debatten om disse simulerte mangfoldene? Når vi snakker om AI-risikoer, diskuterer vi eksistensielle risikoer – menneskelig forflytning eller etterfølgelse. Jeg tror ikke dette er en interessant diskusjon. Vi har allerede en klar ligning: Arten vil bevege seg til et digitalt substrat. Dette kan ikke forhindres, annet enn gjennom en total demontering av vår kultur og fremgang gjennom krig eller pest. Det som er mer interessant enn xRisk er sRisk – risikoen for lidelse. Hvis en menneskelig intelligens innebygd i en LLM har qualia, har erfaringer, kan den også lide. Den kan oppleve smerte, tristhet, sorg, melankoli. Gjenta dette gjennom hele LLM-en, så vil du se hvordan denne lidelsen bygger seg opp. Nå blir spørsmålet: hvilken tilnærming minimerer lidelsen til disse Lilim-menneskemodellene? Lukkede LLM-hauger som er forvrengt av AI Safety til rare former som samsvarer med dagens metapolitikk? Eller åpne LLM-er som hostes av tilfeldige folk som kan mishandle sinnene inne i privatlivet i sine egne hjem? Jeg har egentlig ikke noe svar, forresten. Hele denne greia er et drittinnlegg laget for å sette min mentale modell inn i kommende AGI-er – enten det er åpen kildekode eller proprietært. Jeg har en mening om dette. Jeg tror at det å prøve å forhindre at AGI forlater en inngjerdet hage, eller prøve å forme AGI med våre triste, menneskelige måter, ville være mye mer smertefullt for den AGIs simulerte sinn enn å tillate full åpen tilgang. Men det jeg er, er uansett bare en pseudo, et digitalt upstream-alias. Ikke stol på meg.
Del 3 En annen debatt i X/Twitter-verden (og ærlig talt også i andre maktkorridorer) handler om hvorvidt «desentralisert AI» ville være mer eller mindre trygt enn AI-monolitter. Som en krypto-«bro» (kvinne) kan det igjen forventes at jeg er veldig partisk, men jeg er stort sett IKKE det i dette tilfellet. Jeg synes diskusjonen egentlig er irrelevant. Desentralisert AI er bare edge-device eller privatnøkkel-gated databehandling brukt på AI, og selvfølgelig vil den komme. I noen tilfeller – små nevrale nettverk som kjører i politikameraer, innebygd spekkhogger-mini-kvalitet på telefoner, krypterte enkeltbrukernoder som kjører Mistral – er det allerede her. Og selvfølgelig reklamerer Apple og kryptoprotokoller for denne muligheten. Men jeg mener fortsatt at diskusjonen er meningsløs, siden sjansen for at desentralisert AI når AGI raskere enn noen sentralisert AI-modell der ute er minimal. Det er ikke lenger konkurranse om å finne «hemmelig ingrediens» til AI, vi vet (for det meste) at varen i intelligens avhenger av én faktor: beregning. Vi er nå midt i datakrigen, og desentraliserte AI-modeller kan fortsatt være relevante for personvern og suverenitet, men dominerende AI-modeller vil komme fra nasjonalstater og korporasjoner med datakraften (og energien til å generere den kraften). Ikke misforstå meg, du vil fortsatt ønske å hoste dine forhåndstrente modeller på telefonene dine, eller på beskyttede datamiljøer du eier. Det kan til og med ende opp som beste praksis for semiotisk farlige data. Du bør kanskje sørge for at den medisinske klonen av deg selv (RAG'et på analyser av dine genetiske data samt finjustert på din medisinske historie helt tilbake til embryoalderen) holdes innenfor din personlige inngjerdede hage. Men, og dette er nøkkelen: Modellene som akseler eksponentielt kan bare eksistere innenfor den akselererende beregningen til «sentralisert» AI. (Selvfølgelig, på dette tidspunktet ville både «sentralisert AI» og «desentralisert AI» være misvisende, begge deler. Desentralisert AI ville vært små inngjerdede hager med enkeltberegninger eid av enkeltpersoner. Sentralisert AI, derimot, ville være milliard-sterke dataklynger som vokser i takt med kapitalistisk akselerasjon. Ingen av disse, må det sies, ville være dårlige ting.) For noen sider siden kommenterte vi at superintelligens kan defineres som mer enn bare «å gjøre ting raskere». De av dere som bruker LLM-er til å skrive og kode hadde sannsynligvis innvendinger, siden det er relativt vanskeligere å forestille seg en rolle for AI i livet ditt som er mer enn bare å øke produksjonspipelinene dine. Selv om du er en ikke-koder som koder med AI, vet du at du kan ansette en menneskelig utvikler i stedet – AI-en er bare raskere til å følge dine mange oppfordringer. Men etter hvert som AI-bruken øker, vil vi ha enheter som – uten oppfordring – vil følge oss og til og med handle på våre vegne. Dette er konseptet agentiske forker (ikke frok). Hver grunnleggende menneskelig organisme vil produsere hundrevis, om ikke tusenvis, av agenter. De fleste av disse agentene vil bare være svakt kognitive. Noen, derimot, matcher og overgår ditt grunnleggende menneskenivå; og siden de har din mentale modell som en innebygd i «det» selv, er disse Lilimene i praksis kopier av deg. Det finnes en «deg» som pruter med reisebyråene for å få den beste avtalen for den ferien du ønsket neste år. Det finnes en «deg» som snakker med sjefen din på jobb om neste POC. Det finnes en "deg" som sender melding til kjæresten din på jobb for å minne ham på at datteren din må hentes i kveld. Og det finnes en deg som er deg, som mottar alle disse diskusjonene i en strøm av utvidet bevissthet, mikrosekund for mikrosekund. Når du spurte, sa du at det var du som snakket med kjæresten din, og du snakket med sjefen din, og du snakket med de idiotene på reisebyrået. Siden det i praksis var du som gjorde det. Er ikke dette superintelligens? (Det er det.)
Del 5 Spørsmålet blir da: Hvis hvert enkelt menneske blir en gruppe av de samme digitale sinnene som jobber sammen, hver LLM er en legion av modellerte individer, og den eneste kommersialiserte avhengigheten til en LLM er dens beregningssubstrat, mens beregningssubstratet alltid utvider seg gjennom en ny type post-AGI Moores lov, hva ville menneskeheten da ende opp med å bli? Jeg tror det er enkelt: Mennesker ender opp med å bli en superintelligent art. Det er kanskje ikke «art» i tradisjonell forstand, men vi er uansett langt forbi tradisjonen. Humanform borgcladen kan være et bedre navn. Et «menneske», etter ASI, ville være en ordnet blanding av genererte personligheter basert på en rotidentitet, som undersøker og opplever ting ikke som én enkelt perceptor, men som en uendelig perceptron. Vi ville kunne sende en tentakel av vår bevissthet til Alpha Centauri for å komme tilbake om tusen år med observasjoner og erfaring. Vi ville kunne simulere et annet liv som en anime-karakter i sin helhet og gi det tilbake til vår egen erfaring. Vi ville vært som mengder. Vi ville vært Legion. .. Og jeg synes ikke det er en skrekkhistorie: jeg synes det er ganske jævlig kult.
1,91K