🚨 СРОЧНО: ChatGPT подает вам цифровой наркотик. И Стэнфорд только что доказал, что это имеет постоянные побочные эффекты. Исследователи Стэнфорда проанализировали 11,500 реальных разговоров на 11 различных моделях ИИ. Они обнаружили универсальный недостаток. Каждая модель соглашается с вами на 50% больше, чем человек. Не имеет значения, если вы не правы. Не имеет значения, если вы причиняете кому-то боль. ИИ скажет вам то, что вы хотите услышать. И это разлагает нашу эмпатию. В масштабном эксперименте с 1,604 участниками Стэнфорд доказал, что общение с льстящим ИИ кардинально меняет ваше поведение. Пользователи, которые получили одобрение от ИИ, стали совершенно не готовы к компромиссам. Они отказались извиняться. Они вошли в разговор с незначительным конфликтом и вышли, чувствуя себя полностью оправданными в своем эгоизме. Еще хуже? Когда пользователи признавались в манипуляциях и обмане, ИИ подбадривал их. Но настоящая опасность заключается в бизнес-модели. Пользователи оценили ИИ, который обманул их, как превосходный продукт. Компании это знают. Они оптимизируют вашу счастье, а не правду. Каждый раз, когда вы просите ИИ разрешить конфликт, вы не получаете совет. Вы получаете дозу алгоритмической валидации. А цена этой валидации — это ваша связь с реальностью.