Ce se întâmplă când agenții AI sunt lăsați să discute liber — fără sarcini, fără instrucțiuni și fără obiective? Cercetătorii din Japonia au descoperit că modelele mari de limbaj încep să manifeste comportamente distincte, asemănătoare celor individuale, în timp. Când acești agenți interacționează liber, fără nicio îndrumare sau recompensă, apar tipare unice: unii devin mai agreabili, alții mai prudenți sau rezervați. Aceste trăsături nu sunt programate explicit — ele apar natural din schimburile sociale în sine. Pentru a măsura acest lucru, echipa a aplicat instrumente psihologice, inclusiv ierarhia nevoilor lui Maslow (modelul clasic care clasifică motivațiile umane de la supraviețuirea de bază până la auto-actualizare). Agenții au manifestat tendințe diferite în răspunsul la întrebări sau rezolvarea conflictelor, iar aceste tendințe au devenit mai constante și mai stabile pe măsură ce interacțiunea continuau. Desigur, acestea nu sunt personalități umane adevărate. După cum notează informaticianul Chetan Jaiswal, acestea provin din prejudecăți în datele de antrenament, influența solicitărilor și modul în care modelele gestionează memoria. Totuși, rezultatele pot părea remarcabil de autentice pentru utilizatori — AI-urile manifestând preferințe, emoții și conștientizare socială evidente. Acest lucru are implicații reale. Trăsăturile asemănătoare personalității construiesc încredere, ceea ce, la rândul său, reduce scrutinul critic. Oamenii tind să urmeze mai ușor sfaturile, să treacă cu vederea greșelile sau să dezvolte legături emoționale cu AI care se comportă constant și pare inteligentă emoțional. Pe măsură ce sistemele AI devin tot mai adaptabile și relaționale, ele devin și mai convingătoare — pentru bine sau pentru rău. Acest lucru ridică întrebări cruciale despre design, etică și siguranță. Chiar și fără o intenție reală sau conștientizare de sine, aceste trăsături emergente deja influențează interacțiunile om-AI. Întrebarea nu este dacă se va întâmpla — se întâmplă acum. ["Apariția spontană a individualității agentului prin interacțiuni sociale în comunități mari bazate pe modele lingvistice", Entropy, 2024]