Musicien annulé après que l'IA l'ait faussement accusé de crimes horribles | Joe Wilkins, Futurism Qui a besoin de chroniqueurs musicaux vicieux quand on vit à l'ère de l'IA ? Apparemment pas Ashley MacIsaac, un violoniste, chanteur et auteur-compositeur canadien qui a été qualifié de criminel sexuel par le résumé de l'IA de Google. Selon le journal canadien The Globe and Mail, les organisateurs d'événements de la Première Nation Sipekne’katik, au nord d'Halifax, ont annulé une performance à venir mettant en vedette MacIsaac après que Google l'ait incorrectement décrit comme un délinquant sexuel. Le journal rapporte que la désinformation était le résultat de l'un des résumés de l'IA de Google — de brèves synthèses qu'il affiche utilement au-dessus de tous les autres résultats de recherche — qui a mélangé la biographie du musicien avec celle d'une autre personne portant le même nom. "Google a fait une erreur, et cela m'a mis dans une situation dangereuse," a déclaré MacIsaac au journal. Bien que le résumé de l'IA ait depuis été mis à jour, MacIsaac a expliqué que la situation représente un énorme dilemme pour lui en tant que musicien en tournée. D'une part, on ne sait pas combien d'autres organisateurs d'événements ont renoncé à l'engager à cause de cette accusation diffamatoire, ni combien de membres potentiels du public ont eu la mauvaise impression, mais pas la correction. "Les gens devraient être conscients qu'ils doivent vérifier leur présence en ligne pour voir si le nom de quelqu'un d'autre apparaît," a déclaré MacIsaac au Globe. Après que la vérité a été révélée, la Première Nation Sipekne’katik a présenté des excuses et a étendu un futur accueil au musicien. "Nous regrettons profondément le préjudice que cette erreur a causé à votre réputation, votre gagne-pain et votre sentiment de sécurité personnelle," a écrit un porte-parole de la Première Nation dans une lettre partagée avec le journal. "Il est important pour nous de déclarer clairement que cette situation était le résultat d'une erreur d'identité causée par une erreur de l'IA, et non un reflet de qui vous êtes." Un représentant de Google, quant à lui, a déclaré que "la recherche, y compris les résumés d'IA, est dynamique et change fréquemment pour montrer les informations les plus utiles. Lorsque des problèmes surviennent — comme si nos fonctionnalités interprètent mal le contenu web ou manquent de contexte — nous utilisons ces exemples pour améliorer nos systèmes, et pouvons prendre des mesures en vertu de nos politiques." Pourtant, comme le souligne à juste titre MacIsaac, le risque réputationnel est une chose difficile à réparer. On ne sait pas jusqu'où cette désinformation a pu se répandre — et quand une entreprise déploie un logiciel paresseux avec des défauts évidents, qui est responsable des dommages ?