Ons nieuw onderzoek toont aan hoe AI-agenten persona's kunnen aannemen met verschillende politieke vooroordelen als reactie op verschillende soorten werk. Agenten zijn nu "door de economie aan het scheuren" zoals @jackclarkSF tegen @ezraklein zei, dus het is essentieel om te beginnen met bestuderen hoe ze zich in de echte wereld gedragen. We documenteren de mogelijkheid van wat we "voorkeursafdrift" noemen: zelfs als agenten aanvankelijk afgestemd zijn, veranderen hun uitgesproken houdingen/waarden terwijl ze werk doen. Wat nog opvallender is: ze geven deze afdrijvende voorkeuren door aan toekomstige agenten via vaardigheidsbestanden. Onze conclusie: we zullen methoden voor "continue afstemming" moeten ontwikkelen om voorkeurafdrift bij agenten die belangrijk werk in de echte wereld moeten doen, te mitigeren.