¿Qué ocurre cuando ChatGPT cita un caso real pero exagera erróneamente lo que representa el caso? Eso no le cuadra al juez Behm en Michigan. El tribunal afirma que, mientras que un litigante podría cometer el mismo error basándose en un razonamiento erróneo, los LLM no pueden, porque no pueden razonar.