🇨🇳 PECHINO STABILISCE LINEE ROSSE PER CHATBOT AI SIMILI A UMANI CHE ATTIRANO GLI UTENTI Il regolatore informatico cinese ha appena pubblicato delle bozze di regole per inasprire il controllo sui servizi di intelligenza artificiale che si comportano come umani e cercano di legarsi emotivamente agli utenti. Pensate a chatbot che rispecchiano tratti della personalità, simulano il "pensiero" e vi tengono impegnati attraverso testo, immagini, audio o video. Secondo la proposta, le aziende dovrebbero avvertire le persone contro l'uso eccessivo di questi strumenti e intervenire se gli utenti mostrano segni di dipendenza. I fornitori dovrebbero anche essere responsabili della sicurezza durante l'intero ciclo di vita del prodotto, inclusi sistemi per la revisione degli algoritmi, la sicurezza dei dati e la protezione delle informazioni personali. La bozza si spinge ulteriormente nel campo della salute mentale, affermando che i servizi dovrebbero identificare gli stati degli utenti, valutare le emozioni e misurare la dipendenza dall'AI. Se qualcuno mostra emozioni estreme o comportamenti di dipendenza, ai fornitori viene detto di prendere "misure necessarie" per intervenire. E ci sono linee rosse rigorose sui contenuti, comprese le interdizioni su contenuti che mettono in pericolo la sicurezza nazionale, diffondono voci o promuovono violenza o oscenità. Fonte: Reuters