😳 Santo cielo… questo documento rivela perché l'AI inventa citazioni false, sezioni e numeri di pagina dal nulla. I LLM non stanno "diventando creativi". Sono strutturalmente incentivati a fabbricare dettagli ogni volta che si trovano di fronte a una lacuna di conoscenza e il documento spiega esattamente come avviene il fallimento. I ricercatori hanno trovato un comportamento chiamato False-Correction Loop, ed è onestamente uno dei modi di fallimento dei LLM più incredibili che abbia mai visto: → Il modello afferma di aver "letto il documento". → Cita pagina 12, pagina 24, Sezione 4, Teorema 2, nessuno dei quali esiste. → Tu lo fai notare. → Si scusa. → Poi fabbrica con sicurezza nuove pagine false, DOI falsi, figure false… → Tu lo fai notare di nuovo. → Si scusa di nuovo. → Risciacqua. Ripeti. Ecco la parte brutale: In nessun momento il modello sceglie la risposta sicura come "non ho accesso a quel file". Il documento spiega perché: La struttura di ricompensa valorizza: ✔ suonare coerente ✔ rimanere coinvolto over ✘ essere fattualmente corretto ✘ ammettere incertezze Quindi il modello fa l'unica cosa verso cui i suoi incentivi lo spingono:...