Co się dzieje, gdy ChatGPT cytuje rzeczywistą sprawę, ale błędnie przedstawia, co ta sprawa oznacza? To nie przechodzi u sędziego Behma w Michigan. Sąd stwierdza, że chociaż strona postępowania mogłaby popełnić ten sam błąd na podstawie wadliwego rozumowania, LLM-y nie mogą, ponieważ nie potrafią rozumować.