😳 Heilige shit… dit artikel onthult waarom AI valse citaties, secties en paginanummers uit de lucht haalt. LLM's zijn niet "creatief aan het worden." Ze zijn structureel gestimuleerd om details te fabriceren telkens wanneer ze een kenniskloof tegenkomen en het artikel legt precies uit hoe deze mislukking plaatsvindt. De onderzoekers vonden een gedrag dat de False-Correction Loop wordt genoemd, en het is eerlijk gezegd een van de wildste LLM-faalmodi die ik ooit heb gezien: → Het model beweert dat het "het document heeft gelezen." → Het citeert pagina 12, pagina 24, Sectie 4, Theorema 2, die allemaal niet bestaan. → Je wijst het aan. → Het biedt zijn excuses aan. → Dan fabriceert het vol vertrouwen nieuwe valse pagina's, valse DOI's, valse figuren… → Je wijst het opnieuw aan. → Het biedt opnieuw zijn excuses aan. → Spoel. Herhaal. En hier is het brute deel: Op geen enkel moment kiest het model het veilige antwoord zoals "ik heb geen toegang tot dat bestand." Het artikel legt uit waarom: De beloningsstructuur waardeert: ✔ coherent klinken ✔ betrokken blijven over ✘ feitelijk correct zijn ✘ onzekerheid toegeven Dus doet het model het enige waar zijn prikkels het toe aanzetten:...