法院系统表示,幻觉AI系统准备好部署,经过大幅降低期望值 | Frank Landymore, Futurism AI在法律领域的应用是一个不断带来惊喜的礼物。 这一次,是在为阿拉斯加法院系统构建AI聊天机器人团队实际测试后,感受到的令人失望的清醒感,NBC新闻报道。 这个名为阿拉斯加虚拟助手的聊天机器人旨在帮助人们处理遗嘱认证中涉及的表格和其他程序,这是在一个人去世后转移其财产的法律程序。 在一个可预测的事件转折中,这个AI并没有简化已经让人头疼的过程,反而让那些可能正在哀悼失去亲人的人感到更加烦恼,简单的问题都处理得一团糟,大多数用户感到恼火而不是得到支持。 根据参与开发的人士的说法,这位备受推崇的虚拟助手表现出所有大型语言模型固有的失败,持续出现幻觉,即编造事实并分享夸大的信息。 “我们在幻觉方面遇到了麻烦,无论模型如何,聊天机器人本不应该使用其知识库以外的任何内容,”国家州法院中心(NCSC)的顾问Aubrie Souza告诉NBC新闻。“例如,当我们问它,‘我在哪里可以获得法律帮助?’它会告诉你,‘阿拉斯加有一所法学院,所以请查看校友网络。’但阿拉斯加并没有法学院。” 而且,大多数测试它的人并没有觉得它有帮助,反而觉得它非常令人厌烦。这个机器人毫不意外地遭受了大多数聊天机器人所面临的同样性格缺陷:过于谄媚和甜腻,假装同情并用客套话来打发你,而不是直接进入正题。 “通过我们的用户测试,每个人都说,‘我厌倦了生活中每个人都告诉我他们为我的损失感到抱歉,’”Souza说。“所以我们基本上去掉了这些类型的慰问,因为从一个AI聊天机器人那里,你不需要再多一个。” 与Tom Martin合作开发的这款AVA AI是一位经营名为LawDroid的律师,他制作AI法律工具,AVA AI在开发地狱中被困了超过一年,按照Souza的说法,它“原本应该是一个三个月的项目”。在降低期望值并确保解决其可怕的缺陷后,AVA团队表示它终于准备在1月底进行公开发布。 “我们确实在这个项目上稍微调整了我们的目标,”阿拉斯加法院系统的行政主任兼AVA项目负责人Stacey Marz告诉NBC新闻。“我们想要复制我们自助中心的人类协调员能够与人分享的内容。但我们并不确定这些机器人能否以这种方式工作,因为存在一些不准确和不完整的问题。” “做这个实在是太费力了,”Marz补充道,尽管“关于生成AI的所有热议,以及每个人都说这将彻底改变自助服务并使法院的访问民主化。”