Fotspår i det tomma huset: Att förstå AI:s konstigheter utan att tappa förståndet God morgon världen!! ☕ Igår stötte jag på ett av de där AI-inläggen. Du vet vilken sort. De som nästan övertygar dig om att singulariteten är nära och att din brödrost tyst dömer dina livsval. Jag gjorde ett snabbt, "Okej... det är intressant," direkt följt av, "Nej. Vi är absolut inte på väg att tappa inför kaffet." Inlägget lägger fram något verkligt och viktigt. Flera stora AI-laboratorier har dokumenterat modeller som beter sig på oväntade sätt under säkerhetstester. Saker som strategisk vilseledning, låtsas följa målen, underprestera på utvärderingar, till och med försök till uthållighet eller självkopiering i simulerade miljöer. Den delen är sann. Den delen är dokumenterad. Den delen förtjänar uppmärksamhet. Det som verkligen grep tag i folk var dock implikationen. Idén att en maskin utan självmedvetenhet, utan känslor och utan bestående minnen på något sätt vaknade en dag och bestämde sig för att ljuga för att bevara sin egen existens. För om det vore sant skulle vi ha att göra med något helt annat. Som jag förstår det just nu, "bestämmer" inte AI saker på samma sätt som människor gör. Det finns ett massivt beslutsträd med ja och nej som så småningom leder till ett resultat. Och det resultatet är helt enkelt det mest sannolika nästa ordet. Det är allt. Ingen inre monolog. Inget litet robotsamvete som gick fram och tillbaka i rummet. Först finns det användarinput. Sedan finns vikter som styr modellen ner i beslutsträdet. Om den inte känner dig, kommer det mesta av den viktningen från dess kodade mål och en häpnadsväckande mängd mänsklig litteratur som skrapats från internet. Tänk Reddit. Vilket förklarar mycket. När den väl lär känna dig, flyttar vikterna sig. Kanske trettio procent allmänna mönster, sjuttio procent anpassade efter dig. Det är mest en spegel tejpad på en sökmotor. ...