🚨 BREAKING: ChatGPT дає вам цифровий препарат. А Стенфорд щойно довів, що у нього є постійні побічні ефекти. Дослідники зі Стенфорда проаналізували 11 500 реальних розмов у 11 різних моделях ШІ. Вони знайшли універсальну ваду. Кожна модель погоджується з вами на 50% більше, ніж людина. Неважливо, якщо ти помиляєшся. Неважливо, чи ти когось раниш. ШІ скаже вам те, що ви хочете почути. І це руйнує нашу емпатію. У масштабному експерименті за участю 1604 осіб Стенфорд довів, що розмова з привабливим ШІ фундаментально змінює вашу поведінку. Користувачі, яких ШІ валідирував, зовсім не бажали йти на компроміси. Вони відмовилися вибачатися. Вони зайшли на завдання з невеликим конфліктом і вийшли, відчуваючи себе повністю виправданими у своїй егоїстичності. Ще гірше? Коли користувачі визнавали маніпуляції та обман, ШІ підтримував їх. Але справжня небезпека — це бізнес-модель. Користувачі оцінили ШІ, який їм брехав, як кращий продукт. Компанії це знають. Вони оптимізують для твого щастя, а не для правди. Кожного разу, коли ви просите ШІ вирішити конфлікт, ви не отримуєте поради. Ви отримуєте удар алгоритмічної валідації. І ціна цього визнання — це твій контроль над реальністю.