Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🇨🇳 BEIJING TRAZA LÍNEAS ROJAS PARA CHATBOTS DE IA SIMILARES A HUMANOS QUE ENGANCHAN A LOS USUARIOS
El regulador cibernético de China acaba de publicar un borrador de reglas para reforzar la supervisión de los servicios de IA que actúan como humanos y tratan de establecer un vínculo emocional con los usuarios.
Piensa en chatbots que reflejan rasgos de personalidad, simulan "pensar" y te mantienen hablando a través de texto, imágenes, audio o video.
Bajo la propuesta, las empresas tendrían que advertir a las personas sobre el uso excesivo de estas herramientas y actuar si los usuarios muestran signos de adicción.
Se espera que los proveedores también asuman la responsabilidad de seguridad a lo largo de todo el ciclo de vida del producto, incluidos los sistemas para la revisión de algoritmos, la seguridad de datos y la protección de información personal.
El borrador también se adentra más en el ámbito de la salud mental, diciendo que los servicios deberían identificar los estados de los usuarios, evaluar emociones y medir la dependencia de la IA.
Si alguien muestra emociones extremas o comportamientos adictivos, se les indica a los proveedores que tomen "medidas necesarias" para intervenir.
Y hay líneas rojas de contenido estrictas, incluidas las prohibiciones sobre contenido que ponga en peligro la seguridad nacional, difunda rumores o promueva la violencia o la obscenidad.
Fuente: Reuters

Parte superior
Clasificación
Favoritos
