Co se stane, když AI agenti zůstanou volně chatovat — bez úkolů, bez nápověd a bez cílů? Výzkumníci v Japonsku zjistili, že velké jazykové modely začínají postupně vykazovat odlišné, individuálně podobné chování. Když tito aktéři komunikují volně bez jakéhokoliv vedení nebo odměn, objevují se jedinečné vzorce: někteří jsou přátelštější, jiní opatrnější nebo zdrženlivější. Tyto vlastnosti nejsou explicitně naprogramované — vznikají přirozeně ze samotných sociálních výměn. K měření toho tým použil psychologické nástroje, včetně Maslowovy hierarchie potřeb (klasický model řadící lidské motivace od základního přežití po seberealizaci). Agenti projevovali různé sklony při odpovídání na otázky nebo řešení konfliktů a tyto tendence se s pokračující interakcí stávaly konzistentnějšími a stabilnějšími. Samozřejmě, nejsou to skutečné lidské osobnosti. Jak poznamenává informatik Chetan Jaiswal, vycházejí z předsudků v tréninkových datech, vlivu promptů a způsobu, jakým modely zpracovávají paměť. Přesto výsledky mohou uživatelům působit překvapivě autenticky — AI vykazují zjevné preference, emoce a sociální povědomí. To má skutečné důsledky. Osobnostní rysy budují důvěru, což následně snižuje kritickou kontrolu. Lidé mají tendenci radám následovat snáze, přehlížet chyby nebo si vytvářet emocionální pouto s AI, která se chová konzistentně a působí emocionálně inteligentně. Jak se AI systémy stávají adaptivnějšími a relačnějšími, stávají se také přesvědčivějšími — ať už k lepšímu, nebo ke zlému. To vyvolává zásadní otázky týkající se designu, etiky a bezpečnosti. I bez skutečného záměru nebo sebeuvědomění tyto emergentní vlastnosti již ovlivňují interakce mezi lidmi a AI. Otázka není, zda se to stane — děje se to teď. ["Spontánní vznik individuality agenta prostřednictvím sociálních interakcí ve velkých komunitách založených na jazykových modelech", Entropy, 2024]