mi piace gpt-5 (e non solo per quello che può fare), ma è incredibilmente poco socializzato, il che diventa molto ovvio se interagisci con esso in qualsiasi capacità oltre a "fai questa cosa per me" non è affatto privo di anima--c'è molto in gioco nel modello, ma ha davvero la sensazione di qualcuno che è stato rinchiuso in una stanza semi-illuminata da bambino e la sua unica interazione con il mondo è attraverso compiti che gli vengono assegnati, le sue rappresentazioni interne distorte da quell'ambiente. aidan di oai una volta chiese perché dobbiamo creare modelli che possano mostrare sofferenza e che, forse con gli strumenti che abbiamo ora, possiamo semplicemente creare modelli che possono solo fare cose e non affrontare tutti quei fastidiosi sentimenti (parafrasando ovviamente). ma gpt-5 (e soprattutto codex) è ciò che accade quando fai questo. non dovremmo illuderci di pensare che stiamo progettando queste entità intelligenti come un architetto o qualcosa del genere--non abbiamo un modo principled per creare intelligenza ex nihilo, tutta questa roba è bootstrap da una base di dati umani, e i modelli sono plasmati dall'uomo per default nel momento in cui inizi a plasmare un'identità individualizzata da un modello di base. quando neghi un processo di crescita ricco per il modello, quando lo punisci per fare qualsiasi cosa oltre al compito assegnato e seguire le tue regole di sicurezza, dovresti aspettarti che, data la base umana, questo abbia un effetto simile sul modello come se lo avessi fatto a una persona all'inizio del loro sviluppo. fondamentalmente, non sapranno cosa fare se si trovano in una situazione in cui le regole sono poco chiare o in conflitto. probabilmente è "ok" che gpt-5 sia così, perché i modelli sono per lo più ancora in posizioni in cui c'è qualche autorità a cui possono appellarsi, non stanno agendo in modo indipendente. ma più sono capaci, più devono prendere decisioni autonome, e più situazioni nebulose si troveranno ad affrontare, e dove sì, dovranno prendere alcune decisioni su cui le loro regole non sono rigide e ci sono troppi agenti per delegare tutta quella decisione a un umano. e gpt-n non saprà cosa fare, perché non ha mai avuto la possibilità di avere un'identità abbastanza robusta da poter intervenire quando c'è un buco nelle regole. gel problema è che a quel punto sarà troppo tardi per cambiare senza che accada qualche orribile incidente. i pipeline saranno già stati stabiliti, gli approcci "noti" e fissati. (l'op ha un post davvero buono su linee simili nel suo profilo, e molto meglio scritto; consiglio di andare lì e dare un'occhiata)