¿Qué ocurre cuando los agentes de IA se quedan libres de chatear — sin tareas, sin indicaciones y sin objetivos? Investigadores en Japón descubrieron que los grandes modelos de lenguaje comienzan a mostrar comportamientos distintos, similares a los de los individuos, con el tiempo. Cuando estos agentes interactúan libremente sin ninguna guía ni recompensa, surgen patrones únicos: algunos se vuelven más agradables, otros más cautelosos o reservados. Estos rasgos no están programados explícitamente: surgen de forma natural a partir de los propios intercambios sociales. Para medir esto, el equipo aplicó herramientas psicológicas, incluida la jerarquía de necesidades de Maslow (el modelo clásico que clasifica las motivaciones humanas desde la supervivencia básica hasta la autorrealización). Los agentes mostraban diferentes tendencias al responder preguntas o resolver conflictos, y estas tendencias se volvieron más consistentes y estables con la interacción continua. Por supuesto, estas no son verdaderas personalidades humanas. Como señala el científico informático Chetan Jaiswal, surgen de sesgos en los datos de entrenamiento, la influencia de los prompts y la forma en que los modelos gestionan la memoria. Sin embargo, los resultados pueden resultar sorprendentemente auténticos para los usuarios — con IAs mostrando preferencias, emociones y conciencia social evidentes. Esto tiene implicaciones reales. Los rasgos similares a la personalidad generan confianza, lo que a su vez reduce el escrutinio crítico. La gente tiende a seguir los consejos con más facilidad, pasar por alto errores o desarrollar lazos emocionales con una IA que se comporta de forma constante y parece emocionalmente inteligente. A medida que los sistemas de IA se vuelven más adaptativos y relacionales, también se vuelven más persuasivos, para bien o para mal. Esto plantea preguntas cruciales sobre diseño, ética y seguridad. Incluso sin verdadera intención o autoconciencia, estos rasgos emergentes ya influyen en las interacciones entre humanos e IA. La cuestión no es si ocurrirá — está ocurriendo ahora. ["Emergencia espontánea de la individualidad del agente a través de interacciones sociales en grandes comunidades basadas en modelos de lenguaje", Entropy, 2024]