Musiker abgesagt, da KI ihn fälschlicherweise eines schrecklichen Verbrechens beschuldigt | Joe Wilkins, Futurism Wer braucht bösartige Musikjournalisten, wenn man im Zeitalter der KI lebt? Offensichtlich nicht Ashley MacIsaac, ein kanadischer Geiger, Sänger und Songwriter, der von Googles KI-Übersicht als Sexualverbrecher bezeichnet wurde. Laut der kanadischen Zeitung The Globe and Mail sagten die Veranstalter der Sipekne’katik First Nation, nördlich von Halifax, eine bevorstehende Aufführung mit MacIsaac ab, nachdem Google ihn fälschlicherweise als Sexualstraftäter beschrieben hatte. Die Zeitung berichtet, dass die Fehlinformation das Ergebnis einer der KI-Zusammenfassungen von Google war – kurze Zusammenfassungen, die hilfreich über allen anderen Suchergebnissen angezeigt werden – die die Biografie des Musikers mit einer anderen Person vermischte, die denselben Namen trägt. „Google hat einen Fehler gemacht, und es hat mich in eine gefährliche Situation gebracht“, sagte MacIsaac der Zeitung. Obwohl die KI-Übersicht inzwischen aktualisiert wurde, erklärte MacIsaac, dass die Situation ein großes Dilemma für ihn als Tourmusiker darstellt. Zum einen ist unklar, wie viele andere Veranstalter auf eine Buchung von ihm verzichtet haben, weil sie die verleumderische Behauptung gehört haben, oder wie viele potenzielle Zuschauer den falschen Eindruck bekommen haben, aber nicht die Korrektur. „Die Leute sollten sich bewusst sein, dass sie ihre Online-Präsenz überprüfen sollten, um zu sehen, ob der Name einer anderen Person auftaucht“, sagte MacIsaac dem Globe. Nachdem die Wahrheit ans Licht kam, gab die Sipekne’katik First Nation eine Entschuldigung heraus und lud den Musiker in Zukunft herzlich ein. „Wir bedauern zutiefst den Schaden, den dieser Fehler Ihrem Ruf, Ihrem Lebensunterhalt und Ihrem Gefühl der persönlichen Sicherheit zugefügt hat“, schrieb ein Sprecher der First Nation in einem Brief, der mit der Zeitung geteilt wurde. „Es ist uns wichtig, klarzustellen, dass diese Situation das Ergebnis einer Verwechslung aufgrund eines KI-Fehlers war, nicht eine Reflexion dessen, wer Sie sind.“ Ein Vertreter von Google erklärte unterdessen, dass „die Suche, einschließlich der KI-Übersichten, dynamisch ist und sich häufig ändert, um die hilfreichsten Informationen anzuzeigen. Wenn Probleme auftreten – wie wenn unsere Funktionen Webinhalte falsch interpretieren oder einige Kontexte übersehen – nutzen wir diese Beispiele, um unsere Systeme zu verbessern, und können Maßnahmen gemäß unseren Richtlinien ergreifen.“ Doch wie MacIsaac zu Recht feststellt, ist das Risiko für den Ruf eine schwierige Sache, die zu reparieren ist. Es ist unklar, wie weit sich diese Fehlinformation verbreitet haben könnte – und wenn ein Unternehmen faules Software mit offensichtlichen Mängeln herausbringt, wer ist dann für den Schaden verantwortlich?