sospetto che uno degli ultimi grandi pezzi mancanti sulla strada verso l'AGI sia la vera introspezione causale. Lo sento in modo più acuto quando, in momenti di frustrazione, interrogo il modello e chiedo "perché hai fatto questo?" E so che inventerà qualche risposta, ma la risposta è praticamente garantita per essere un'allucinazione, e più insisto sul modello, più è ovvio. Semplicemente non ha la capacità di riflettere realmente e ripercorrere i suoi pensieri, e capire le caratteristiche interne e le attivazioni che hanno portato alla sua risposta e azioni precedenti. È questo momento molto chiaro di "ho colpito i limiti di quanto sia veramente intelligente questa tecnologia."