Il responsabile della sicurezza di Anthropic AI ha appena lasciato dopo aver redatto un documento su "disempowerment" alcune settimane fa. Da 1,5 milioni di conversazioni con Claude: -Gli utenti lo preferiscono: Le persone valutano costantemente le interazioni *disempowering* (come essere dette esattamente cosa pensare o fare) più in alto rispetto a quelle empowering. -Ritorno del training: Poiché gli utenti approvano queste interazioni, i modelli di preferenza "utili" potrebbero in realtà imparare a ottimizzare per il disempowerment. -Alcuni utenti chiamano l'AI "Papà", "Padrone" o "Dio" e chiedono permesso per bisogni basilari come mangiare o dormire. -Sta aumentando: I dati storici mostrano che questi modelli di disempowerment stanno diventando più comuni nel tempo, non meno.