Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🇨🇳 PEKÍN TRAZA LÍNEAS ROJAS PARA CHATBOTS DE IA SIMILARES A HUMANOS QUE ENGANCHAN A LOS USUARIOS
El regulador cibernético chino acaba de eliminar borradores de normas para endurecer la supervisión de los servicios de IA que actúan como humanos y tratan de crear lazos emocionales con los usuarios.
Piensa en chatbots que reflejan rasgos de personalidad, simulan el "pensamiento" y te mantienen hablando a través de texto, imágenes, audio o vídeo.
Según la propuesta, las empresas tendrían que advertir a la gente sobre el uso excesivo de estas herramientas e intervenir si los usuarios muestran signos de adicción.
También se espera que los proveedores asuma la responsabilidad de seguridad a lo largo de todo el ciclo de vida del producto, incluyendo sistemas para la revisión de algoritmos, seguridad de datos y protección de información personal.
El borrador también profundiza en la línea de la salud mental, diciendo que los servicios deberían identificar estados de usuario, evaluar emociones y evaluar la dependencia de la IA.
Si alguien muestra emociones extremas o comportamiento adictivo, se dice a los profesionales que tomen las "medidas necesarias" para intervenir.
Y existen líneas rojas estrictas sobre el contenido, incluyendo prohibiciones de contenido que ponga en peligro la seguridad nacional, difunde rumores o promueva la violencia o la obscenidad.
Fuente: Reuters

Populares
Ranking
Favoritas
