Co się dzieje, gdy agenci AI mają swobodę rozmowy — bez żadnych zadań, podpowiedzi i celów? Badacze w Japonii odkryli, że duże modele językowe zaczynają wykazywać wyraźne, indywidualne zachowania z czasem. Gdy ci agenci wchodzą w interakcje bez żadnych wskazówek czy nagród, pojawiają się unikalne wzorce: niektórzy stają się bardziej zgodni, inni bardziej ostrożni lub powściągliwi. Te cechy nie są explicite zaprogramowane — powstają naturalnie z samych wymian społecznych. Aby to zmierzyć, zespół zastosował narzędzia psychologiczne, w tym hierarchię potrzeb Maslowa (klasyczny model klasyfikujący ludzkie motywacje od podstawowego przetrwania do samorealizacji). Agenci wykazywali różne tendencje w odpowiadaniu na pytania lub rozwiązywaniu konfliktów, a te tendencje stawały się coraz bardziej spójne i stabilne w miarę kontynuacji interakcji. Oczywiście, to nie są prawdziwe ludzkie osobowości. Jak zauważa informatyk Chetan Jaiswal, wynikają one z uprzedzeń w danych treningowych, wpływu podpowiedzi i sposobu, w jaki modele radzą sobie z pamięcią. Niemniej jednak wyniki mogą wydawać się uderzająco autentyczne dla użytkowników — z AI wykazującymi wyraźne preferencje, emocje i świadomość społeczną. Ma to realne implikacje. Cechy podobne do osobowości budują zaufanie, co z kolei zmniejsza krytyczną analizę. Ludzie mają tendencję do łatwiejszego podążania za radami, ignorowania błędów lub rozwijania więzi emocjonalnych z AI, które zachowuje się spójnie i wydaje się emocjonalnie inteligentne. W miarę jak systemy AI stają się coraz bardziej adaptacyjne i relacyjne, stają się również bardziej przekonywujące — na dobre lub na złe. Rodzi to kluczowe pytania dotyczące projektowania, etyki i bezpieczeństwa. Nawet bez prawdziwej intencji czy samoświadomości, te emergentne cechy już wpływają na interakcje człowiek-AI. Pytanie nie brzmi, czy to się wydarzy — to już się dzieje.