Что происходит, когда ChatGPT ссылается на реальный случай, но неверно интерпретирует, что этот случай означает? Это не проходит для судьи Бехма в Мичигане. Суд говорит, что хотя истец может совершить ту же ошибку на основе ошибочного рассуждения, LLM не могут, потому что они не способны рассуждать.