Sistema Judicial Diz Que Sistema de IA Alucinatório Está Pronto para Ser Implantado Após Reduzir Dramaticamente as Expectativas | Frank Landymore, Futurism O uso da IA na esfera legal é um presente que continua a dar. Desta vez, é a sensação sóbria de decepção que se instalou após uma equipe que estava construindo um chatbot de IA para o sistema judicial do Alasca realmente testá-lo e descobrir que era um desastre alucinatório, relata a NBC News. O chatbot, chamado de Assistente Virtual do Alasca, foi projetado para ajudar as pessoas a lidar com formulários e outros procedimentos envolvidos no inventário, o processo legal de transferência dos bens de uma pessoa após sua morte. Em uma reviravolta previsível, em vez de simplificar um processo que já causa dor de cabeça para pessoas que provavelmente estão de luto pela perda de um ente querido, a IA cometeu erros em perguntas simples e deixou a maioria dos usuários se sentindo irritados em vez de apoiados. Exibindo uma falha inerente a todos os grandes modelos de linguagem, o estimado assistente virtual continuou alucinado, ou inventando fatos e compartilhando informações exageradas, de acordo com as pessoas envolvidas em seu desenvolvimento. “Tivemos problemas com alucinações, independentemente do modelo, onde o chatbot não deveria realmente usar nada fora de sua base de conhecimento,” disse Aubrie Souza, consultora do Centro Nacional para Tribunais Estaduais (NCSC), à NBC News. “Por exemplo, quando perguntamos, ‘Onde posso obter ajuda legal?’ ele diria, ‘Há uma faculdade de direito no Alasca, então olhe para a rede de ex-alunos.’ Mas não há faculdade de direito no Alasca.” E, em vez de achar útil, a maioria das pessoas que o testou achou-o incrivelmente irritante. O bot, sem surpresa, sofria do mesmo defeito de caráter que atormenta a maioria dos chatbots: ser excessivamente bajulador e meloso, fingindo empatia e oferecendo-lhe gentilezas em vez de simplesmente ir direto ao ponto. “Durante nossos testes com usuários, todos disseram, ‘Estou cansado de todo mundo na minha vida me dizendo que sente muito pela minha perda,’” disse Souza. “Então, basicamente, removemos esse tipo de condolências, porque de um chatbot de IA, você não precisa de mais uma.” Construído em colaboração com Tom Martin, um advogado que dirige uma empresa chamada LawDroid que cria ferramentas legais de IA, a IA AVA tem estado presa em um inferno de desenvolvimento por mais de um ano agora, quando deveria ser um projeto de três meses, segundo Souza. Após reduzir suas expectativas — e seguramente corrigir suas horrendas falhas — a equipe da AVA diz que está finalmente pronta para um lançamento público no final de janeiro. “Mudamos um pouco nossos objetivos neste projeto,” disse Stacey Marz, diretora administrativa do Sistema Judicial do Alasca e líder do projeto AVA, à NBC News. “Queríamos replicar o que nossos facilitadores humanos no centro de autoajuda são capazes de compartilhar com as pessoas. Mas não estamos confiantes de que os bots podem funcionar dessa forma, devido aos problemas com algumas imprecisões e algumas incompletudes.” “Foi apenas tão trabalhoso fazer isso,” acrescentou Marz, apesar de “todo o burburinho sobre IA generativa, e todo mundo dizendo que isso vai revolucionar a autoajuda e democratizar o acesso aos tribunais.”