Å bruke AI til å skrive bryllupsløfter, taler eller personlige meldinger kan få deg til å virke mindre oppriktig og omsorgsfull, viser en ny studie | Datamaskiner i menneskelig atferd Folk som bruker AI for å skrive hjertelige budskap, som bryllupsløfter eller kjærlighetsbrev, fremstår ofte som mindre oppriktige og omsorgsfulle i andres øyne. En ny studie viser at bruk av kunstig intelligens for disse personlige oppgavene utløser negative vurderinger. Observatører ser personen som mindre moralsk og autentisk. De tror også at personen bryr seg mindre om mottakeren. Selv det AI-lagde budskapet virker lavere i kvalitet og verdi. Forskerne gjennomførte seks forhåndsregistrerte eksperimenter med 3 935 deltakere fra Storbritannia. De viste scenarioer der noen fullførte en oppgave enten helt alene eller med AI-assistanse. Deltakerne vurderte deretter personens karakter, motiver, autentisitet og verkets verdi. Mønsteret skilte seg tydelig ut. Folk så hardere på de som brukte AI. Denne kritikken ble forsterket for sosio-relasjonelle oppgaver, som å skrive unnskyldningsbrev, taler eller personlige notater til kjære. Praktiske oppgaver utløste mildere reaksjoner. Motreaksjonen holdt seg sterk selv da personen åpent beskrev AI som et «samarbeidsverktøy». Forfatterne peker på redusert innsats som kjernen. Å bruke mindre personlig tid og energi signaliserer uautentisitet. Det antyder at forfatteren mangler ekte investering. "Våre resultater tyder på at redusert innsats er viktig ikke bare fordi folk verdsetter tid og energi brukt, men fordi mindre innsats på outsourcing signaliserer andreordens oppfatninger om at folk er mindre autentiske og bryr seg mindre om oppgaven," skrev forfatterne. De la til innsikt i mekanismen: «den reduserte innsatsen ved å outsource sosio-relasjonelle oppgaver til KI signaliserer at resultatet er mindre autentisk for én og at personen bryr seg mindre om oppgaven.» Verktøy som ChatGPT gjør disse oppgavene raskere og enklere. Men denne effektiviteten kommer med en pris. Det skader oppfatningen av brukerens moralske karakter og svekker oppfattede sosiale bånd. Etter hvert som AI håndterer mer intime kommunikasjon, kan slike oppfatninger skade relasjoner i den virkelige verden. Arbeidet reiser større spørsmål om hva som regnes som autentisk i daglige interaksjoner. Studien, med tittelen «Negative perceptions of outsourcing to artificial intelligence», ble skrevet av Scott Claessens, Pierce Veitch og Jim A.C. Everett. Den dukket opp i Computers in Human Behavior. Les mer: