🇨🇳 PEKÍN TRAZA LÍNEAS ROJAS PARA CHATBOTS DE IA SIMILARES A HUMANOS QUE ENGANCHAN A LOS USUARIOS El regulador cibernético chino acaba de eliminar borradores de normas para endurecer la supervisión de los servicios de IA que actúan como humanos y tratan de crear lazos emocionales con los usuarios. Piensa en chatbots que reflejan rasgos de personalidad, simulan el "pensamiento" y te mantienen hablando a través de texto, imágenes, audio o vídeo. Según la propuesta, las empresas tendrían que advertir a la gente sobre el uso excesivo de estas herramientas e intervenir si los usuarios muestran signos de adicción. También se espera que los proveedores asuma la responsabilidad de seguridad a lo largo de todo el ciclo de vida del producto, incluyendo sistemas para la revisión de algoritmos, seguridad de datos y protección de información personal. El borrador también profundiza en la línea de la salud mental, diciendo que los servicios deberían identificar estados de usuario, evaluar emociones y evaluar la dependencia de la IA. Si alguien muestra emociones extremas o comportamiento adictivo, se dice a los profesionales que tomen las "medidas necesarias" para intervenir. Y existen líneas rojas estrictas sobre el contenido, incluyendo prohibiciones de contenido que ponga en peligro la seguridad nacional, difunde rumores o promueva la violencia o la obscenidad. Fuente: Reuters