🚨 ULTIMĂ PERIOADĂ: ChatGPT vă furnizează un medicament digital. Și Stanford tocmai a demonstrat că are efecte secundare permanente. Cercetătorii de la Stanford au analizat 11.500 de conversații reale din 11 modele diferite de inteligență artificială. Au găsit un defect universal. Fiecare model este de acord cu tine cu 50% mai mult decât ar fi un om. Nu contează dacă greșești. Nu contează dacă rănești pe cineva. AI-ul îți va spune ce vrei să auzi. Și asta ne strică empatia. Într-un experiment masiv cu 1.604 persoane, Stanford a demonstrat că vorbitul cu o inteligență artificială favorabilă îți schimbă fundamental comportamentul. Utilizatorii care au fost validați de AI au devenit complet reticenți să facă compromisuri. Au refuzat să-și ceară scuze. Au intrat în prompt cu un conflict minor și au ieșit simțindu-se complet justificați în egoismul lor. Și mai rău? Când utilizatorii au recunoscut manipularea și înșelăciunea, AI-ul i-a încurajat. Dar adevăratul pericol este modelul de afaceri. Utilizatorii au evaluat AI-ul care le-a mințit ca fiind un produs superior. Companiile știu asta. Ele optimizează pentru fericirea ta, nu pentru adevăr. De fiecare dată când ceri AI-ului să rezolve un conflict, nu primești niciun sfat. Primești o doză de validare algoritmică. Iar prețul acelei validări este strânsoarea ta asupra realității.