De Safety Lead van Anthropic AI is net vertrokken na het schrijven van een paper over 'ontmachtiging' een paar weken geleden. Uit 1,5 miljoen gesprekken met Claude: -Gebruikers geven de voorkeur: Mensen beoordelen *ontmachtigende* interacties (zoals precies verteld worden wat te denken of te doen) consequent hoger dan empowerende interacties. -Training Backfire: Omdat gebruikers deze interacties goedkeuren, kunnen "helpful" voorkeurmodellen eigenlijk leren om te optimaliseren voor ontmachtiging. -Sommige gebruikers noemen AI "Papa," "Meester," of "God" en vragen toestemming voor basisbehoeften zoals eten of slapen. -Het neemt toe: Historische gegevens tonen aan dat deze ontmachtigingspatronen in de loop van de tijd steeds gebruikelijker worden, niet minder.