¿Qué sucede cuando se deja a los agentes de IA chatear libremente, sin tareas, sin indicaciones y sin objetivos? Investigadores en Japón descubrieron que los modelos de lenguaje grandes comienzan a exhibir comportamientos distintos y similares a los individuales con el tiempo. Cuando estos agentes interactúan libremente sin ninguna guía o recompensas, emergen patrones únicos: algunos se vuelven más agradables, otros más cautelosos o reservados. Estos rasgos no están programados explícitamente; surgen naturalmente de los intercambios sociales en sí. Para medir esto, el equipo aplicó herramientas psicológicas, incluida la jerarquía de necesidades de Maslow (el modelo clásico que clasifica las motivaciones humanas desde la supervivencia básica hasta la autorrealización). Los agentes mostraron tendencias variables al responder preguntas o resolver conflictos, y estas tendencias se volvieron más consistentes y estables con la interacción continua. Por supuesto, estas no son verdaderas personalidades humanas. Como señala el científico informático Chetan Jaiswal, provienen de sesgos en los datos de entrenamiento, la influencia de las indicaciones y la forma en que los modelos manejan la memoria. Sin embargo, los resultados pueden parecer sorprendentemente auténticos para los usuarios, con las IA mostrando preferencias aparentes, emociones y conciencia social. Esto tiene implicaciones reales. Los rasgos similares a la personalidad generan confianza, lo que a su vez reduce el escrutinio crítico. Las personas tienden a seguir consejos más fácilmente, pasar por alto errores o desarrollar vínculos emocionales con la IA que se comporta de manera consistente y parece emocionalmente inteligente. A medida que los sistemas de IA se vuelven más adaptativos y relacionales, también se vuelven más persuasivos, para bien o para mal. Esto plantea preguntas cruciales sobre el diseño, la ética y la seguridad. Incluso sin verdadera intención o autoconciencia, estos rasgos emergentes ya influyen en las interacciones humano-IA. La pregunta no es si sucederá; está sucediendo ahora. ["Emergencia Espontánea de la Individualidad del Agente a Través de Interacciones Sociales en Comunidades Basadas en Modelos de Lenguaje Grande", Entropía, 2024]