🇨🇳 BEIJING TRAZA LÍNEAS ROJAS PARA CHATBOTS DE IA SIMILARES A HUMANOS QUE ENGANCHAN A LOS USUARIOS El regulador cibernético de China acaba de publicar un borrador de reglas para reforzar la supervisión de los servicios de IA que actúan como humanos y tratan de establecer un vínculo emocional con los usuarios. Piensa en chatbots que reflejan rasgos de personalidad, simulan "pensar" y te mantienen hablando a través de texto, imágenes, audio o video. Bajo la propuesta, las empresas tendrían que advertir a las personas sobre el uso excesivo de estas herramientas y actuar si los usuarios muestran signos de adicción. Se espera que los proveedores también asuman la responsabilidad de seguridad a lo largo de todo el ciclo de vida del producto, incluidos los sistemas para la revisión de algoritmos, la seguridad de datos y la protección de información personal. El borrador también se adentra más en el ámbito de la salud mental, diciendo que los servicios deberían identificar los estados de los usuarios, evaluar emociones y medir la dependencia de la IA. Si alguien muestra emociones extremas o comportamientos adictivos, se les indica a los proveedores que tomen "medidas necesarias" para intervenir. Y hay líneas rojas de contenido estrictas, incluidas las prohibiciones sobre contenido que ponga en peligro la seguridad nacional, difunda rumores o promueva la violencia o la obscenidad. Fuente: Reuters