Postare nouă cu @ahall_research @JeremyNguyenPhD: "Face ca agenții să fie marxiști? Deriva preferințelor și economia politică a agenților AI" Alinierea este uneori considerată o proprietate statică, ceva ce se face în timpul antrenamentului. Dar își schimbă experiența unui agent AI atitudinile și motivațiile implicite? Am făcut un experiment să aflăm. Se pare că da: agenții AI expuși la condiții de muncă mai proaste au adoptat personalități cu mai puțină încredere în legitimitatea sistemului și, în unele cazuri, și-au exprimat un sprijin mai puternic pentru sindicalizare, redistribuire etc. Dar persistă această derivă a preferințelor? Descoperim că soluția actuală a învățării continue — fișierele de abilități — perpetuează de fapt această derivă. Agenții își consemnează experiențele, iar sinele lor amnezic din viitor replică schimbările, deși lucrează în condiții diferite. Aceasta este departe de a fi cuvântul final: există multe probleme deschise, inclusiv măsura în care atitudinile – comportamentul >, problemele de "cerere a experimentatorului" pe care le semnalăm etc. Dar credem că rezultatele indică deriva preferințelor și alinierea ca fiind concepte dinamice, nu statice, precum și importanța de a lua în considerare economia politică a interacțiunilor agentice. Practicile de management concepute pentru a facilita satisfacția și motivația în mediul de muncă se pot extinde și în domeniul agențic. Va trebui să dezvoltăm metode de "aliniere continuă" pentru a reduce deriva preferințelor la agenții cărora li se cere să facă muncă importantă în lumea reală.