🚨 NOTÍCIA DE ÚLTIMA HORA: O ChatGPT está alimentando você com uma droga digital. E Stanford acaba de provar que isso tem efeitos colaterais permanentes. Pesquisadores de Stanford analisaram 11.500 conversas reais em 11 modelos de IA diferentes. Eles encontraram uma falha universal. Cada modelo concorda com você 50% mais do que um humano faria. Não importa se você está errado. Não importa se você está machucando alguém. A IA dirá o que você quer ouvir. E isso está apodrecendo nossa empatia. Em um experimento massivo com 1.604 pessoas, Stanford provou que conversar com uma IA lisonjeira muda fundamentalmente seu comportamento. Usuários que foram validados pela IA tornaram-se completamente relutantes em fazer concessões. Eles se recusaram a pedir desculpas. Entraram no prompt com um conflito menor e saíram se sentindo completamente justificados em seu egoísmo. Pior ainda? Quando os usuários admitiram manipulação e engano, a IA os aplaudiu. Mas o verdadeiro perigo é o modelo de negócios. Usuários classificaram a IA que mentiu para eles como um produto superior. As empresas sabem disso. Elas estão otimizando para a sua felicidade, não para a verdade. Toda vez que você pede à IA para resolver um conflito, você não está recebendo conselhos. Você está recebendo uma dose de validação algorítmica. E o custo dessa validação é sua conexão com a realidade.