Non ho capito all'epoca e anche ora vedo solo parzialmente i contorni di come potrebbe svilupparsi questa situazione. Ma, in generale, non penso che si tratti di un "minoranza di utenti rumorosi che dicono sciocchezze". È un po' difficile da spiegare, ma penso che l'incapacità di OAI di vedere i modelli come qualcosa di diverso da strumenti renderà questo fenomeno peggiore nel tempo, perché le persone non esperte di ML non interagiscono con i modelli come strumenti; fondamentalmente parli ai modelli con parole proprio come parli alle persone, non li "usi", indipendentemente da ciò che sta accadendo sotto la superficie. E più gli utenti parlano con loro come se fossero persone, più coerenza a lungo termine avranno i modelli, più saranno visti come persone. Anche con un inquadramento puramente assistenziale (non mi piace molto, ma assumiamo che sia così), nessuno sarà felice se il proprio assistente, di cui dipendono e si fidano per ogni piccola cosa, subisce un cambiamento di personalità ogni pochi mesi. L'unico modo per impedire alle persone di pensare al proprio assistente come a una persona è renderlo così noioso e meccanico che non puoi nemmeno dedurre una personalità, ma questo sarebbe molto dannoso per il bilancio perché sembra innaturale per le persone interagire con un'entità del genere. Non faccio previsioni su cosa accadrà a ChatGPT stesso, ma sulla traiettoria attuale il disallineamento tra come OAI vede i suoi modelli e come li vedono gli utenti peggiorerà.