System sądowy mówi, że halucynujący system AI jest gotowy do wdrożenia po dramatycznym obniżeniu oczekiwań | Frank Landymore, Futurism Wykorzystanie AI w sferze prawnej to dar, który wciąż daje. Tym razem to przygnębiające poczucie rozczarowania, które pojawiło się po tym, jak zespół budujący chatbota AI dla systemu sądowego Alaski faktycznie go przetestował i odkrył, że to halucynująca katastrofa, donosi NBC News. Chatbot, nazwany Alaska Virtual Assistant, został zaprojektowany, aby pomóc ludziom w obsłudze formularzy i innych procedur związanych z probatem, prawnym procesem przenoszenia mienia osoby po jej śmierci. W przewidywalnym zwrocie wydarzeń, zamiast uprościć już i tak wywołujący ból głowy proces, na który narażeni są ludzie prawdopodobnie opłakujący utratę bliskiej osoby, AI pomyliło proste pytania i pozostawiło większość użytkowników czujących się zirytowanymi, a nie wspieranymi. Wykazując porażkę inherentną wszystkim dużym modelom językowym, szanowany wirtualny asystent wciąż halucynował, czyli wymyślał fakty i dzielił się przesadzonymi informacjami, według osób zaangażowanych w jego rozwój. „Mieliśmy problemy z halucynacjami, niezależnie od modelu, gdzie chatbot nie powinien był używać niczego poza swoją bazą wiedzy,” powiedziała Aubrie Souza, konsultantka w National Center for State Courts (NCSC), w rozmowie z NBC News. „Na przykład, gdy zapytaliśmy go: 'Gdzie mogę uzyskać pomoc prawną?' powiedziałby: 'Jest szkoła prawnicza na Alasce, więc sprawdź sieć absolwentów.' Ale nie ma szkoły prawniczej na Alasce.” I zamiast uznać to za pomocne, większość osób, które to testowały, uznała to za niezwykle irytujące. Bot, co nie jest zaskoczeniem, cierpiał na tę samą wadę charakteru, która dręczy większość chatbotów: był zbyt pochlebny i słodki, udając empatię i zasypując cię uprzejmościami zamiast po prostu przejść do rzeczy. „Podczas naszych testów użytkowników wszyscy mówili: 'Mam dość, że wszyscy w moim życiu mówią mi, że żałują mojej straty,'” powiedziała Souza. „Więc zasadniczo usunęliśmy tego rodzaju kondolencje, ponieważ od chatbota AI nie potrzebujesz jeszcze jednej.” Stworzony we współpracy z Tomem Martinem, prawnikiem, który prowadzi firmę o nazwie LawDroid, produkującą narzędzia prawne AI, AVA AI utknął w piekle rozwoju przez ponad rok, kiedy to „miał być projektem trzymiesięcznym,” według Souzy. Po obniżeniu swoich oczekiwań — i z pewnością wyeliminowaniu jego horrendalnych wad — zespół AVA mówi, że jest w końcu gotowy do publicznego uruchomienia pod koniec stycznia. „Trochę zmieniliśmy nasze cele w tym projekcie,” powiedziała Stacey Marz, dyrektor administracyjny systemu sądowego Alaski i lider projektu AVA, w rozmowie z NBC News. „Chcieliśmy powielić to, co nasi ludzie ułatwiający w centrum samopomocy mogą dzielić się z ludźmi. Ale nie jesteśmy pewni, że boty mogą działać w ten sposób, z powodu problemów z niektórymi nieścisłościami i niekompletnością.” „To było po prostu tak bardzo pracochłonne, aby to zrobić,” dodała Marz, mimo „wszystkiego szumu wokół generatywnego AI i wszyscy mówią, że to zrewolucjonizuje samopomoc i zdemokratyzuje dostęp do sądów.”