Jeg mistenker at en av de siste store manglende brikkene på veien til AGI er ekte kausal introspeksjon. Jeg kjenner dette sterkest når jeg, i frustrerende øyeblikk, avhører modellen og spør: «Hvorfor gjorde du det?» Og jeg vet at det kommer til å finne på et svar, men svaret er i praksis garantert en hallusinasjon, og jo hardere jeg trykker på modellen, jo mer åpenbart blir det. Den har rett og slett ikke evnen til faktisk å reflektere og spore tankene sine, og finne ut av de interne funksjonene og aktiveringene som førte til dens tidligere respons og handlinger. Det er et veldig tydelig øyeblikk av «Jeg har nådd grensene for hvor virkelig intelligent denne teknologien er.»