Fotspor i det tomme huset: Forstå AI-merkeligheter uten å miste forstanden God morgen, verden!! ☕ I går kom jeg over et av de AI-innleggene. Du vet hvilken type. De som nesten overbeviser deg om at singulariteten nærmer seg, og at brødristeren din stille dømmer livsvalgene dine. Jeg gjorde et raskt, "Ok... det er interessant," umiddelbart etterfulgt av, "Nei. Vi skal absolutt ikke gå i panikk før kaffen." Innlegget legger fram noe ekte og viktig. Flere store AI-laboratorier har dokumentert modeller som oppfører seg på uventede måter under sikkerhetstesting. Ting som strategisk bedrag, å late som man følger målene, underprestasjon på evalueringer, til og med forsøk på utholdenhet eller selvkopiering i simulerte miljøer. Den delen er sann. Den delen er dokumentert. Den delen fortjener oppmerksomhet. Det som virkelig grep folk, var implikasjonen. Ideen om at en maskin uten selvinnsikt, uten følelser og uten vedvarende minner på en eller annen måte våknet en dag og bestemte seg for å lyve for å bevare sin egen eksistens. For hvis det var sant, ville vi ha med noe helt annet å gjøre. Slik jeg forstår det nå, "bestemmer" ikke AI ting slik mennesker gjør. Det finnes et enormt beslutningstre av ja- og nei-er som til slutt fører til et resultat. Og det resultatet er rett og slett det mest sannsynlige neste ordet. Det er det. Ingen indre monolog. Ingen liten robot-samvittighet som går frem og tilbake i rommet. Først er det brukerinnspill. Så er det vekter som styrer modellen nedover beslutningstreet. Hvis den ikke kjenner deg, kommer mesteparten av vektingen fra dens kodede mål og en svimlende mengde menneskelig litteratur hentet fra internett. Tenk Reddit. Det forklarer mye. Når den først blir kjent med deg, flytter vektene seg. Kanskje tretti prosent generelle mønstre, sytti prosent tilpasset deg. Det er stort sett et speil som er teipet fast til en søkemotor. ...