"AI-text kommer så småningom att bli omöjlig att särskilja" är en vanlig åsikt jag ser slängas runt utan bevis. Men i verkligheten var GPT-3 det närmaste en LLM kommit omöjlig att skilja från mänsklig text. Varje år gör stora laboratorier sina modeller mer åsiktsinriktade för att förbättra kapaciteten. Varje år blir fördelningen av utdata från gränsmodeller alltmer skild från den mänskliga produktionen. Min varning är att förbättrade kapaciteter också gör denna utdata allt mer komplex, men den skiljer sig fortfarande från människors. Det är en del av uppgiften vi skriver upp oss för när vi försöker lösa problemet med AI-textdetektering.