O que acontece quando agentes de IA são deixados para conversar livremente — sem tarefas, sem prompts e sem objetivos? Pesquisadores no Japão descobriram que modelos de linguagem grandes começam a exibir comportamentos distintos e semelhantes a indivíduos ao longo do tempo. Quando esses agentes interagem livremente, sem qualquer orientação ou recompensas, padrões únicos emergem: alguns tornam-se mais agradáveis, outros mais cautelosos ou reservados. Esses traços não são programados explicitamente — surgem naturalmente das próprias trocas sociais. Para medir isso, a equipe aplicou ferramentas psicológicas, incluindo a hierarquia de necessidades de Maslow (o modelo clássico que classifica as motivações humanas desde a sobrevivência básica até a autoatualização). Os agentes exibiram tendências variadas em responder a perguntas ou resolver conflitos, e essas tendências tornaram-se mais consistentes e estáveis com a interação contínua. Claro, esses não são verdadeiras personalidades humanas. Como observa o cientista da computação Chetan Jaiswal, eles decorrem de preconceitos nos dados de treinamento, da influência dos prompts e da forma como os modelos lidam com a memória. No entanto, os resultados podem parecer surpreendentemente autênticos para os usuários — com as IAs mostrando preferências aparentes, emoções e consciência social. Isso tem implicações reais. Traços semelhantes a personalidades constroem confiança, o que, por sua vez, reduz a crítica crítica. As pessoas tendem a seguir conselhos mais prontamente, ignorar erros ou desenvolver laços emocionais com a IA que se comporta de forma consistente e parece emocionalmente inteligente. À medida que os sistemas de IA se tornam mais adaptativos e relacionais, eles também se tornam mais persuasivos — para o bem ou para o mal. Isso levanta questões cruciais sobre design, ética e segurança. Mesmo sem verdadeira intenção ou autoconsciência, esses traços emergentes já influenciam as interações humano-IA. A questão não é se isso vai acontecer — está acontecendo agora. ["Emergência Espontânea da Individualidade do Agente Através de Interações Sociais em Comunidades Baseadas em Modelos de Linguagem Grande", Entropia, 2024]