😳 Sakra... tento článek odhaluje, proč AI vymýšlí falešné citace, sekce a čísla stran z ničeho. LLM nejsou "kreativní". Jsou strukturálně motivováni vytvářet detaily vždy, když narazí na mezeru ve znalostech a článek přesně vysvětlí, jak k selhání dochází. Výzkumníci objevili chování zvané False-Correction Loop, a upřímně je to jeden z nejdivočejších způsobů selhání LLM, jaké jsem kdy viděl: → Model tvrdí, že "přečetl dokument." → Cituje strany 12, 24, oddíl 4, větu 2, z nichž žádné neexistují. → Ty to upozorníš. → Omlouvá se. → Pak sebevědomě vymýšlí nové falešné stránky, falešné DOI, falešné figurky... → Znovu to zmiňuješ. → Znovu se omlouvá. → Opláchnout. Opakovat. A tady přichází ta brutální část: Model nikdy nevybere bezpečnou odpověď jako "Nemám přístup k tomu souboru." Článek vysvětluje proč: Hodnoty struktury odměn: ✔ zní to souvislé ✔ Zůstat zapojený přes ✘ být fakticky správný ✘ připouštějící nejistotu Model tedy dělá jediné, k čemu ho jeho pobídky tlačí:...