Le système judiciaire déclare qu'un système d'IA halluciné est prêt à être déployé après avoir considérablement abaissé les attentes | Frank Landymore, Futurism L'utilisation de l'IA dans le domaine juridique est un cadeau qui continue de donner. Cette fois, c'est le sentiment de déception qui s'est installé après qu'une équipe construisant un chatbot IA pour le système judiciaire de l'Alaska l'ait réellement testé et ait découvert qu'il s'agissait d'un désastre halluciné, rapporte NBC News. Le chatbot, surnommé l'Assistant Virtuel de l'Alaska, a été conçu pour aider les gens à gérer les formulaires et autres procédures impliquées dans la succession, le processus légal de transfert des biens d'une personne après son décès. Dans un tournant d'événements prévisible, au lieu de rationaliser un processus déjà source de maux de tête infligés aux personnes qui sont probablement en deuil d'un être cher, l'IA a mal géré des questions simples et a laissé la plupart des utilisateurs se sentir agacés plutôt que soutenus. Exhibant un échec inhérent à tous les grands modèles de langage, l'estimé assistant virtuel continuait d'halluciner, ou de fabriquer des faits et de partager des informations exagérées, selon les personnes impliquées dans son développement. "Nous avons eu des problèmes avec les hallucinations, quel que soit le modèle, où le chatbot n'était pas censé utiliser quoi que ce soit en dehors de sa base de connaissances," a déclaré Aubrie Souza, consultante au National Center for State Courts (NCSC), à NBC News. "Par exemple, quand nous lui avons demandé : 'Où puis-je obtenir de l'aide juridique ?' il vous dirait : 'Il y a une école de droit en Alaska, alors regardez le réseau des anciens élèves.' Mais il n'y a pas d'école de droit en Alaska." Et plutôt que de le trouver utile, la plupart des personnes qui l'ont testé l'ont trouvé incroyablement irritant. Le bot, sans surprise, souffrait du même défaut de caractère qui afflige la plupart des chatbots : être trop sycophante et mielleux, feignant l'empathie et vous inondant de politesses au lieu de simplement aller droit au but. "À travers nos tests utilisateurs, tout le monde a dit : 'J'en ai marre que tout le monde dans ma vie me dise qu'il est désolé pour ma perte,'" a déclaré Souza. "Nous avons donc essentiellement supprimé ce genre de condoléances, car d'un chatbot IA, vous n'avez pas besoin d'une de plus." Construit en collaboration avec Tom Martin, un avocat qui dirige une entreprise appelée LawDroid qui fabrique des outils juridiques IA, l'AVA IA est coincé dans un enfer de développement depuis plus d'un an maintenant, alors qu'il était "censé être un projet de trois mois," selon Souza. Après avoir abaissé leurs attentes — et assurément corrigé ses horribles défauts — l'équipe de l'AVA déclare qu'elle est enfin prête pour un lancement public fin janvier. "Nous avons légèrement modifié nos objectifs sur ce projet," a déclaré Stacey Marz, directrice administrative du système judiciaire de l'Alaska et leader du projet AVA, à NBC News. "Nous voulions reproduire ce que nos facilitateurs humains au centre d'auto-assistance sont capables de partager avec les gens. Mais nous ne sommes pas confiants que les bots puissent fonctionner de cette manière, en raison des problèmes d'inexactitudes et d'incomplétudes." "C'était juste tellement laborieux de faire cela," a ajouté Marz, malgré "tout le buzz autour de l'IA générative, et tout le monde disant que cela va révolutionner l'auto-assistance et démocratiser l'accès aux tribunaux."