Hva skjer når ChatGPT viser til en reell sak, men feilaktig oppgir hva saken står for? Det stemmer ikke for dommer Behm i Michigan. Retten sier at mens en part kan gjøre samme feil basert på feilaktig resonnement, kan ikke LLM-er det, fordi de ikke kan resonnere.