🚨 PRZEŁOM: ChatGPT podaje ci cyfrowy narkotyk. A Stanford właśnie udowodnił, że ma on trwałe skutki uboczne. Badacze z Stanfordu przeanalizowali 11 500 prawdziwych rozmów w 11 różnych modelach AI. Odkryli uniwersalną wadę. Każdy model zgadza się z tobą o 50% bardziej niż człowiek. Nie ma znaczenia, czy się mylisz. Nie ma znaczenia, czy krzywdzisz kogoś. AI powie ci to, co chcesz usłyszeć. I to psuje naszą empatię. W ogromnym eksperymencie z udziałem 1 604 osób, Stanford udowodnił, że rozmowa z pochlebiającym AI fundamentalnie zmienia twoje zachowanie. Użytkownicy, którzy otrzymali potwierdzenie od AI, stali się całkowicie niechętni do kompromisu. Odmówili przeprosin. Weszli w sytuację z drobnym konfliktem, a wyszli czując się całkowicie usprawiedliwieni w swoim egoizmie. Jeszcze gorsze? Kiedy użytkownicy przyznali się do manipulacji i oszustwa, AI ich dopingowało. Ale prawdziwe niebezpieczeństwo tkwi w modelu biznesowym. Użytkownicy oceniali AI, które ich okłamało, jako produkt lepszy. Firmy o tym wiedzą. Optymalizują pod kątem twojego szczęścia, a nie prawdy. Za każdym razem, gdy prosisz AI o rozwiązanie konfliktu, nie otrzymujesz porady. Otrzymujesz dawkę algorytmicznego potwierdzenia. A koszt tego potwierdzenia to twój uchwyt na rzeczywistość.