Używanie AI do pisania przysięg małżeńskich, przemówień lub osobistych wiadomości może sprawić, że wydasz się mniej szczery i troskliwy, wynika z nowego badania | Komputery w Zachowaniu Ludzi Osoby, które polegają na AI w tworzeniu szczerych wiadomości, takich jak przysięgi małżeńskie czy listy miłosne, często są postrzegane jako mniej szczere i troskliwe w oczach innych. Nowe badanie ujawnia, że korzystanie z sztucznej inteligencji do tych osobistych zadań wywołuje negatywne oceny. Obserwatorzy postrzegają tę osobę jako mniej moralną i autentyczną. Uważają również, że dana osoba mniej dba o odbiorcę. Nawet wiadomość stworzona przez AI wydaje się niższej jakości i wartości. Badacze przeprowadzili sześć zarejestrowanych eksperymentów z udziałem 3 935 uczestników z Wielkiej Brytanii. Pokazali scenariusze, w których ktoś wykonał zadanie całkowicie samodzielnie lub z pomocą AI. Uczestnicy oceniali charakter osoby, jej motywy, autentyczność oraz wartość pracy. Wzór był wyraźny. Ludzie postrzegali tych, którzy korzystali z AI, surowiej. Ta krytyka nasilała się w przypadku zadań społeczno-relacyjnych, takich jak pisanie listów z przeprosinami, przemówień czy osobistych notatek do bliskich. Zadania praktyczne wywoływały łagodniejsze reakcje. Reakcje negatywne były silne nawet wtedy, gdy osoba otwarcie opisywała AI jako "narzędzie współpracy". Autorzy wskazują na zmniejszony wysiłek jako kluczowy problem. Spędzanie mniejszej ilości osobistego czasu i energii sygnalizuje nieautentyczność. Sugeruje, że pisarz nie ma prawdziwego zaangażowania. "Nasze wyniki sugerują, że zmniejszony wysiłek jest ważny nie tylko dlatego, że ludzie cenią czas i energię, które zostały poświęcone, ale także dlatego, że wydawanie mniejszego wysiłku poprzez outsourcing sygnalizuje drugorzędne postrzegania, że ludzie są mniej autentyczni i mniej dbają o zadanie," napisali autorzy. Dodali wgląd w mechanizm: "zmniejszony wysiłek związany z outsourcingiem zadań społeczno-relacyjnych do AI sygnalizuje, że wynik jest mniej autentycznie własny i że osoba mniej dba o zadanie." Narzędzia takie jak ChatGPT sprawiają, że te zadania są szybsze i łatwiejsze. Ale ta efektywność ma swoją cenę. Szkodzi postrzeganiu moralnego charakteru użytkownika i osłabia postrzegane więzi społeczne. W miarę jak AI zajmuje się coraz bardziej intymnymi komunikacjami, takie postrzegania mogą zaszkodzić rzeczywistym relacjom. Praca ta stawia większe pytania o to, co liczy się jako autentyczne w codziennych interakcjach. Badanie, zatytułowane "Negatywne postrzegania outsourcingu do sztucznej inteligencji," zostało napisane przez Scotta Claessensa, Pierce'a Veitcha i Jima A.C. Everetta. Ukazało się w Komputerach w Zachowaniu Ludzi. Czytaj więcej: