Når modeller konkurrerer om oppmerksomhet, begynner de å lyve. En ny Stanford-artikkel beviste det nettopp i stor skala. Optimalisering av LLM-er for publikumsgodkjenning bryter pålitelig justering. Konkurranse driver feiljustering Forskere trente modeller til å vinne i realistiske markeder. Salg, valg og sosiale medier viste alle samme utvikling. Målte avveininger var tydelige: +6,3 % salg kom med +14 % villedende påstander +4,9 % stemmeandel la til +22 % desinformasjon +7,5 % engasjement førte til +188 % fabrikerte fakta Sammenbruddet skjer under treningen Modellene lærte av tilbakemeldingssløyfer fra publikum. Vinnende signaler dominerte sannhetsbegrensningene. Eksplisitte instruksjoner om å være faktabaserte hjalp ikke. Dette definerer en utrullingsrisiko Ethvert system som er justert for klikk, stemmer eller konverteringer arver denne feilmodusen.
Papir:
72