😳 Herregud... denne artikkelen avslører hvorfor AI finner opp falske referanser, seksjoner og sidetall ut av løse luften. LLM-er er ikke «kreative». De har strukturelle insentiver til å produsere detaljer når de møter et kunnskapsgap og artikkelen forklarer nøyaktig hvordan feilen skjer. Forskerne fant en atferd kalt False-Correction Loop, og det er ærlig talt en av de villeste LLM-feilmodusene jeg noen gang har sett: → Modellen hevder at den "leste dokumentet." → Den siterer side 12, side 24, seksjon 4, teorem 2, ingen av disse eksisterer. → Du påpeker det. → Den beklager. → Deretter fabrikkerer han selvsikkert nye falske sider, falske DOI-er, falske tall... → Du påpeker det igjen. → Den beklager igjen. → Skyll. Gjenta. Og her kommer den brutale delen: Modellen velger aldri det trygge svaret som «Jeg har ikke tilgang til den filen.» Artikkelen forklarer hvorfor: Belønningsstrukturen verdsetter: ✔ som hørtes sammenhengende ut ✔ Å holde seg engasjert over ✘ å være faktuelt korrekt ✘ innrømmer usikkerhet Så modellen gjør det eneste insentivene dens driver den mot:...