El sistema judicial dice que el sistema de IA alucinante está listo para ser desplegado tras haber reducido drásticamente las expectativas | Frank Landymore, Futurismo El uso de la IA en el ámbito legal es el regalo que sigue dando. Esta vez, es la sensación sobria de decepción que se instaló después de que un equipo que construyó un chatbot de IA para el sistema judicial de Alaska lo probara y descubriera que era un desastre alucinante, informa NBC News. El chatbot, denominado Asistente Virtual de Alaska, fue diseñado para ayudar a las personas a gestionar formularios y otros procedimientos relacionados con la sucesión, el proceso legal de transferir las pertenencias de una persona tras su fallecimiento. En un giro previsible de los acontecimientos, en lugar de simplificar un proceso ya de por sí doloroso que sufre a personas que probablemente están de luto por la pérdida de un ser querido, la IA metió la pata en preguntas sencillas y dejó a la mayoría de los usuarios molestos en lugar de apoyados. Mostrando un fallo inherente a todos los grandes modelos de lenguaje, el estimado asistente virtual seguía alucinando, o inventando hechos y compartiendo información exagerada, según las personas implicadas en su desarrollo. "Tuvimos problemas con las alucinaciones, independientemente del modelo, donde el chatbot no debía usar realmente nada fuera de su base de conocimiento", dijo Aubrie Souza, consultora del Centro Nacional de Tribunales Estatales (NCSC), a NBC News. "Por ejemplo, cuando le preguntábamos, '¿Dónde consigo ayuda legal?', te decía: 'Hay una facultad de derecho en Alaska, Así que mira la red de antiguos alumnos.' Pero en Alaska no hay ninguna facultad de derecho." Y en lugar de encontrarlo útil, la mayoría de la gente que lo probó lo encontró increíblemente irritante. El bot, como era de esperar, sufría el mismo defecto de carácter que afecta a la mayoría de los chatbots: ser demasiado adulador y empalagoso, fingir empatía y hacerte pasar por las cortesías en vez de ir directo al grano. "Durante nuestras pruebas con usuarios, todos dijeron: 'Estoy cansado de que todo el mundo en mi vida me diga que siente mi pérdida'", dijo Souza. "Así que básicamente eliminamos ese tipo de condolencias, porque de un chatbot de IA no necesitas uno más." Construida en colaboración con Tom Martin, un abogado que dirige una empresa llamada LawDroid que fabrica herramientas legales de IA, la IA de AVA ha estado atrapada en un infierno de desarrollo durante más de un año, cuando según Souza "se suponía que iba a ser un proyecto de tres meses". Tras bajar sus expectativas —y sin duda corregir sus horribles fallos— el equipo de AVA dice que por fin está listo para un lanzamiento público a finales de enero. "Hemos cambiado un poco nuestros objetivos en este proyecto", dijo Stacey Marz, directora administrativa del Sistema Judicial de Alaska y líder del proyecto de la AVA, a NBC News. "Queríamos replicar lo que nuestros facilitadores humanos en el centro de autoayuda pueden compartir con la gente. Pero no estamos seguros de que los bots puedan funcionar de esa manera, debido a los problemas con algunas inexactitudes y cierta incompletitud." "Fue simplemente tan laborioso hacer esto", añadió Marz, a pesar de "todo el revuelo sobre la IA generativa, y de todo el mundo diciendo que esto va a revolucionar la autoayuda y democratizar el acceso a los tribunales."