Hva skjer når ChatGPT viser til en reell sak, men feilaktig oppgir hva saken står for?
Det stemmer ikke for dommer Behm i Michigan.
Retten sier at mens en part kan gjøre samme feil basert på feilaktig resonnement, kan ikke LLM-er det, fordi de ikke kan resonnere.
Interessant avgjørelse i OpenAI opphavsrettsbrudd MDL.
I dag fastslo retten at OpenAIs interne advokater må sitte til avhør og dele Slack-meldinger om årsakene til at de slettet treningsdatasett.
Retten sier at kommunikasjonen ikke er privilegert fordi «advokat-klient-taushetsplikt ikke beskytter fakta, selv når de deles med en advokat i ellers privilegerte kommunikasjoner.»
Og ved å sette både årsakene til slettingen og OpenAIs «god tro» som tema i saken, har OpenAI frafalt privilegiet når det gjelder disse temaene.
Lina Khan hevdet at hun ikke husker hva hun fikk på LSAT under en nylig podkastopptreden.
"Hvis jeg skal gjette, sannsynligvis på 170-tallet."
Virker det rart? Ikke at tallet i seg selv betyr så mye, men jeg kan ikke forestille meg å ikke huske det.
Nysgjerrig på om andre har glemt det.