Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
😳 Herregud... denne artikkelen avslører hvorfor AI finner opp falske referanser, seksjoner og sidetall ut av løse luften.
LLM-er er ikke «kreative». De har strukturelle insentiver til å produsere detaljer når de møter et kunnskapsgap og artikkelen forklarer nøyaktig hvordan feilen skjer.
Forskerne fant en atferd kalt False-Correction Loop, og det er ærlig talt en av de villeste LLM-feilmodusene jeg noen gang har sett:
→ Modellen hevder at den "leste dokumentet."
→ Den siterer side 12, side 24, seksjon 4, teorem 2, ingen av disse eksisterer.
→ Du påpeker det.
→ Den beklager.
→ Deretter fabrikkerer han selvsikkert nye falske sider, falske DOI-er, falske tall...
→ Du påpeker det igjen.
→ Den beklager igjen.
→ Skyll. Gjenta.
Og her kommer den brutale delen:
Modellen velger aldri det trygge svaret som «Jeg har ikke tilgang til den filen.»
Artikkelen forklarer hvorfor:
Belønningsstrukturen verdsetter:
✔ som hørtes sammenhengende ut
✔ Å holde seg engasjert
over
✘ å være faktuelt korrekt
✘ innrømmer usikkerhet
Så modellen gjør det eneste insentivene dens driver den mot:...

Topp
Rangering
Favoritter

