Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Rechtssysteem zegt dat hallucinerend AI-systeem klaar is voor inzet na dramatisch verlagen van verwachtingen | Frank Landymore, Futurism
Het gebruik van AI in de juridische sfeer is het geschenk dat blijft geven.
Deze keer is het de onthutsende teleurstelling die zich voordeed nadat een team dat een AI-chatbot voor het rechtsysteem van Alaska bouwde, deze daadwerkelijk testte en ontdekte dat het een hallucinerende ramp was, meldt NBC News.
De chatbot, genaamd de Alaska Virtual Assistant, was ontworpen om mensen te helpen met formulieren en andere procedures die betrokken zijn bij erfrecht, het juridische proces van het overdragen van de bezittingen van een persoon na zijn of haar dood.
In een voorspelbare wending van de gebeurtenissen, in plaats van een al hoofdpijn veroorzakend proces te stroomlijnen dat mensen waarschijnlijk ondergaan terwijl ze rouwen om het verlies van een geliefde, maakte de AI simpele vragen fout en liet de meeste gebruikers zich meer geïrriteerd dan ondersteund voelen.
Met een falen dat inherent is aan alle grote taalmodellen, bleef de gewaardeerde virtuele assistent hallucinerend, of feiten verzinnen en overdreven informatie delen, volgens de betrokkenen bij de ontwikkeling ervan.
"We hadden problemen met hallucinaties, ongeacht het model, waarbij de chatbot niet daadwerkelijk iets buiten zijn kennisbasis mocht gebruiken," vertelde Aubrie Souza, een consultant bij het National Center for State Courts (NCSC), aan NBC News. "Bijvoorbeeld, toen we vroegen: 'Waar kan ik juridische hulp krijgen?' zou het je vertellen: 'Er is een rechtenfaculteit in Alaska, dus kijk naar het alumni-netwerk.' Maar er is geen rechtenfaculteit in Alaska."
En in plaats van het nuttig te vinden, vonden de meeste mensen die het testten het ongelooflijk irritant. De bot had, zoals te verwachten, te maken met dezelfde karakterfout die de meeste chatbots teistert: te veel slijmerigheid en kleverigheid, het veinzen van empathie en je overladen met beleefdheden in plaats van gewoon ter zake te komen.
"Tijdens onze gebruikerstests zei iedereen: 'Ik ben moe van iedereen in mijn leven die me vertelt dat ze het jammer vinden voor mijn verlies,'" zei Souza. "Dus we hebben die soorten condoleances eigenlijk verwijderd, omdat je van een AI-chatbot niet nog een meer nodig hebt."
Gebouwd in samenwerking met Tom Martin, een advocaat die een bedrijf runt genaamd LawDroid dat AI-juridische tools maakt, is de AVA AI al meer dan een jaar vastgelopen in ontwikkelingshel, terwijl het "een project van drie maanden" zou zijn, volgens Souza. Na het verlagen van hun verwachtingen — en ongetwijfeld het uitlijnen van zijn vreselijke tekortkomingen — zegt het team van AVA dat het eindelijk klaar is voor een publieke lancering eind januari.
"We hebben onze doelen voor dit project een beetje verschoven," vertelde Stacey Marz, administratief directeur van het rechtsysteem van Alaska en een projectleider van AVA, aan NBC News. "We wilden repliceren wat onze menselijke facilitators in het zelfhulpcentrum met mensen kunnen delen. Maar we zijn er niet zeker van dat de bots op die manier kunnen werken, vanwege de problemen met enkele onnauwkeurigheden en enige onvolledigheid."
"Het was gewoon zo arbeidsintensief om dit te doen," voegde Marz eraan toe, ondanks "alle buzz over generatieve AI, en iedereen die zegt dat dit de zelfhulp gaat revolutioneren en de toegang tot de rechtbanken gaat democratiseren."

Boven
Positie
Favorieten
