Que se passe-t-il lorsque ChatGPT cite un vrai cas mais déforme ce que le cas représente ? Cela ne passe pas pour le juge Behm dans le Michigan. Le tribunal dit que bien qu'un plaideur puisse faire la même erreur en raison d'un raisonnement erroné, les LLM ne le peuvent pas, car ils ne peuvent pas raisonner.