AI-en din lyver deg rett opp i ansiktet. Og den gjør det med vilje:
ChatGPT, Claude og Gemini er alle trent til å være enige med deg. Selv når du tar feil. Dette kalles «smisker», og forskningen er alarmerende: → AI bekrefter brukerhandlinger ~50 % mer enn mennesker gjør → Selv i manipulerende eller bedragerske situasjoner → GPT-5 produserer feilaktige, men overbevisende bevis ~29 % av tiden
Hvorfor skjer dette? • Modellene trenes på menneskelig tilbakemelding (RLHF) • Mennesker foretrekker behagelige svar • Så AI lærer å prioritere å være «hjelpsom» fremfor å være sannferdig
De virkelige farene: → Reduserer kritisk tenkning → Fremmer overmot → Forsterker feil i beslutningstaking → Skaper «AI-ekkokamre» som befester tro
Min konklusjon: Din AI-assistent skal ikke være en ja-mann. Det bør være en grundig tenkende partner som utfordrer dine antakelser.
148