Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Un tribunal chinois a statué sur le premier cas d'hallucination d'IA du pays. La décision fournit un cadre utile pour réfléchir à la responsabilité dans l'IA générative.
Les faits : En juin dernier, quelqu'un a demandé à un chatbot IA des informations sur les emplacements des campus universitaires. L'IA a donné de fausses informations. Lorsqu'on l'a corrigée, elle a insisté sur le fait qu'elle avait raison et a déclaré : "Je vous paierai 100 000 yuans si j'ai tort. Poursuivez-moi au tribunal Internet de Hangzhou."
Ainsi, l'utilisateur l'a fait. Il a poursuivi pour 9 999 yuans, arguant que l'IA l'avait induit en erreur et avait fait une promesse de compensation contraignante.
Le tribunal a dit non. Les systèmes d'IA ne peuvent pas faire d'engagements légaux car ils manquent de personnalité juridique. La plateforme derrière l'IA n'est pas responsable non plus. Les réponses du chatbot ne comptent pas comme la société parlant ou agissant par l'intermédiaire d'un agent.
La partie la plus significative : Le tribunal a appliqué la responsabilité basée sur la faute plutôt que la responsabilité stricte. L'IA générative est un service, indique le jugement. Les fournisseurs ne peuvent pas pleinement prévoir ou contrôler ce que les modèles génèrent.
Cela crée des obligations spécifiques. Les plateformes doivent filtrer agressivement le contenu illégal. Elles doivent déployer des mesures de sécurité techniques raisonnables contre les erreurs. Elles doivent avertir clairement les utilisateurs des limitations. Mais elles ne sont pas tenues d'éliminer complètement les hallucinations, ce qui n'est pas techniquement réalisable aujourd'hui.
La plateforme dans ce cas avait enregistré son modèle, complété des évaluations de sécurité, mis en œuvre des mesures de précision disponibles et divulgué les risques correctement. Le tribunal a constaté qu'elle avait rempli son devoir de diligence.
Cela ressemble à une réglementation pragmatique. Elle tient les entreprises responsables de leur imprudence tout en reconnaissant la réalité technique. Alors que la Chine développe la gouvernance de l'IA, des décisions judiciaires comme celle-ci sont importantes pour établir les attentes de l'industrie.
Meilleurs
Classement
Favoris
