O que acontece quando o ChatGPT cita um caso real, mas afirma incorretamente o que o caso representa? Isso não é aceito pelo juiz Behm em Michigan. O tribunal diz que, enquanto um litigante poderia cometer o mesmo erro com base em um raciocínio falho, os LLMs não podem, porque não conseguem raciocinar.