Gerichtssystem sagt, dass das halluzinierende KI-System bereit ist, eingesetzt zu werden, nachdem die Erwartungen dramatisch gesenkt wurden | Frank Landymore, Futurism Der Einsatz von KI im rechtlichen Bereich ist das Geschenk, das immer wieder Freude bereitet. Diesmal ist es das ernüchternde Gefühl der Enttäuschung, das sich einstellte, nachdem ein Team, das einen KI-Chatbot für das Gerichtssystem von Alaska entwickelt hat, ihn tatsächlich getestet und herausgefunden hat, dass er ein halluzinierendes Desaster war, berichtet NBC News. Der Chatbot, genannt Alaska Virtual Assistant, wurde entwickelt, um Menschen bei der Handhabung von Formularen und anderen Verfahren im Zusammenhang mit der Nachlassregelung zu helfen, dem rechtlichen Prozess der Übertragung des Eigentums einer Person nach ihrem Tod. In einer vorhersehbaren Wendung der Ereignisse, anstatt einen bereits kopfschmerzenden Prozess zu rationalisieren, der Menschen auferlegt wird, die wahrscheinlich um den Verlust eines geliebten Menschen trauern, hat die KI einfache Fragen vermasselt und die meisten Benutzer eher verärgert als unterstützt zurückgelassen. In Anbetracht eines Versagens, das allen großen Sprachmodellen eigen ist, halluzinierte der angesehene virtuelle Assistent ständig, oder erfand Fakten und teilte übertriebene Informationen, so die an seiner Entwicklung beteiligten Personen. „Wir hatten Probleme mit Halluzinationen, unabhängig vom Modell, bei dem der Chatbot nicht tatsächlich etwas außerhalb seiner Wissensbasis verwenden sollte“, sagte Aubrie Souza, eine Beraterin des National Center for State Courts (NCSC), gegenüber NBC News. „Zum Beispiel, als wir ihn fragten: ‚Wo bekomme ich rechtliche Hilfe?‘, sagte er: ‚Es gibt eine Jurafakultät in Alaska, also schau dir das Alumni-Netzwerk an.‘ Aber es gibt keine Jurafakultät in Alaska.“ Und anstatt es hilfreich zu finden, fanden die meisten Menschen, die ihn testeten, ihn unglaublich nervig. Der Bot litt, wenig überraschend, unter dem gleichen Charakterfehler, der die meisten Chatbots plagt: zu schmeichelhaft und klebrig zu sein, Empathie vorzutäuschen und dich mit Höflichkeiten zu überhäufen, anstatt einfach zur Sache zu kommen. „Durch unsere Benutzertests sagte jeder: ‚Ich bin es leid, dass jeder in meinem Leben mir sagt, dass es ihm leid tut wegen meines Verlustes‘“, sagte Souza. „Also haben wir diese Art von Beileidsbekundungen im Grunde entfernt, denn von einem KI-Chatbot braucht man nicht noch eine mehr.“ In Zusammenarbeit mit Tom Martin, einem Anwalt, der ein Unternehmen namens LawDroid leitet, das KI-rechtliche Werkzeuge herstellt, ist die AVA KI seit über einem Jahr in der Entwicklungs-Hölle gefangen, als es „ein Drei-Monats-Projekt“ sein sollte, so Souza. Nachdem sie ihre Erwartungen gesenkt und sicherlich ihre schrecklichen Mängel beseitigt haben, sagt das Team von AVA, dass es endlich bereit für einen öffentlichen Start Ende Januar ist. „Wir haben unsere Ziele für dieses Projekt ein wenig verschoben“, sagte Stacey Marz, Verwaltungsdirektorin des Gerichtssystems von Alaska und Projektleiterin von AVA, gegenüber NBC News. „Wir wollten replizieren, was unsere menschlichen Vermittler im Selbsthilfezentrum den Menschen mitteilen können. Aber wir sind uns nicht sicher, ob die Bots in dieser Weise funktionieren können, aufgrund der Probleme mit einigen Ungenauigkeiten und Unvollständigkeiten.“ „Es war einfach so arbeitsintensiv, dies zu tun“, fügte Marz hinzu, trotz „aller Aufregung über generative KI und dass jeder sagt, dass dies die Selbsthilfe revolutionieren und den Zugang zu den Gerichten demokratisieren wird.“