Ce se întâmplă când ChatGPT citează un caz real, dar nu exagerează ce reprezintă cazul? Asta nu se potrivește cu judecătorul Behm în Michigan. Instanța spune că, în timp ce un litigant ar putea face aceeași greșeală pe baza unui raționament greșit, LLM-urile nu pot, pentru că nu pot raționa.