Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
El sistema judicial dice que el sistema de IA que alucina está listo para ser implementado tras reducir drásticamente las expectativas | Frank Landymore, Futurism
El uso de la IA en el ámbito legal es un regalo que sigue dando.
Esta vez, es la desalentadora sensación de decepción que se instaló después de que un equipo que construía un chatbot de IA para el sistema judicial de Alaska lo probara y descubriera que era un desastre alucinante, informa NBC News.
El chatbot, apodado el Asistente Virtual de Alaska, fue diseñado para ayudar a las personas a manejar formularios y otros procedimientos involucrados en el proceso de sucesión, el proceso legal de transferir las pertenencias de una persona tras su muerte.
En un giro predecible de los acontecimientos, en lugar de simplificar un proceso que ya induce dolores de cabeza a las personas que probablemente están de luto por la pérdida de un ser querido, la IA cometió errores en preguntas simples y dejó a la mayoría de los usuarios sintiéndose molestos en lugar de apoyados.
Exhibiendo un fallo inherente a todos los modelos de lenguaje grandes, el estimado asistente virtual seguía alucinando, o inventando hechos y compartiendo información exagerada, según las personas involucradas en su desarrollo.
“Tuvimos problemas con las alucinaciones, independientemente del modelo, donde el chatbot no debía usar nada fuera de su base de conocimientos”, dijo Aubrie Souza, consultora del Centro Nacional para los Tribunales Estatales (NCSC), a NBC News. “Por ejemplo, cuando le preguntamos, ‘¿Dónde puedo obtener ayuda legal?’ te diría, ‘Hay una facultad de derecho en Alaska, así que mira la red de exalumnos.’ Pero no hay facultad de derecho en Alaska.”
Y en lugar de encontrarlo útil, la mayoría de las personas que lo probaron lo encontraron increíblemente irritante. El bot, como era de esperar, sufría del mismo defecto de carácter que afecta a la mayoría de los chatbots: ser demasiado adulador y empalagoso, fingiendo empatía y llenándote de cortesías en lugar de simplemente ir al grano.
“A través de nuestras pruebas de usuario, todos dijeron, ‘Estoy cansado de que todos en mi vida me digan que lo sienten por mi pérdida,’” dijo Souza. “Así que básicamente eliminamos ese tipo de condolencias, porque de un chatbot de IA, no necesitas una más.”
Construido en colaboración con Tom Martin, un abogado que dirige una empresa llamada LawDroid que crea herramientas legales de IA, la IA AVA ha estado atrapada en un infierno de desarrollo durante más de un año, cuando se suponía que iba a ser un proyecto de tres meses, según Souza. Después de reducir sus expectativas —y seguramente resolver sus horrendos defectos— el equipo de AVA dice que finalmente está listo para un lanzamiento público a finales de enero.
“Cambiamos un poco nuestros objetivos en este proyecto,” dijo Stacey Marz, directora administrativa del Sistema Judicial de Alaska y líder del proyecto AVA, a NBC News. “Queríamos replicar lo que nuestros facilitadores humanos en el centro de autoayuda pueden compartir con las personas. Pero no estamos seguros de que los bots puedan funcionar de esa manera, debido a los problemas con algunas inexactitudes y algunas incompletitudes.”
“Simplemente fue muy laborioso hacer esto,” agregó Marz, a pesar de “todo el revuelo sobre la IA generativa, y de que todos dicen que esto va a revolucionar la autoayuda y democratizar el acceso a los tribunales.”

Parte superior
Clasificación
Favoritos
