O que acontece quando o ChatGPT cita um caso real, mas declara mal o que ele representa? Isso não aceita o juiz Behm em Michigan. O tribunal afirma que, enquanto um litigante pode cometer o mesmo erro com base em raciocínio equivocado, LLMs não podem, porque não conseguem raciocinar.