Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Utilizzare l'AI per scrivere voti nuziali, discorsi o messaggi personali potrebbe farti sembrare meno sincero e premuroso, secondo un nuovo studio | Computers in Human Behavior
Le persone che si affidano all'AI per creare messaggi sentiti, come voti nuziali o lettere d'amore, spesso appaiono meno sincere e premurose agli occhi degli altri.
Un nuovo studio rivela che ricorrere all'intelligenza artificiale per questi compiti personali suscita giudizi negativi. Gli osservatori vedono la persona come meno morale e autentica. Credono anche che l'individuo si prenda meno cura del destinatario. Anche il messaggio creato dall'AI sembra di qualità e valore inferiori.
I ricercatori hanno condotto sei esperimenti pre-registrati con 3.935 partecipanti provenienti dalla Gran Bretagna. Hanno mostrato scenari in cui qualcuno completava un compito interamente da solo o con l'assistenza dell'AI. I partecipanti hanno poi valutato il carattere, le motivazioni, l'autenticità della persona e il valore del lavoro.
Il modello è emerso chiaramente. Le persone giudicavano più severamente coloro che utilizzavano l'AI. Questa critica si intensificava per compiti socio-relazionali, come scrivere lettere di scuse, discorsi o note personali ai propri cari. I compiti pratici suscitavano reazioni più miti.
Il malcontento è rimasto forte anche quando la persona descriveva apertamente l'AI come uno "strumento collaborativo". Gli autori indicano la riduzione dello sforzo come il problema principale. Spendere meno tempo ed energia personale segnala inautenticità. Suggerisce che lo scrittore non ha un investimento genuino.
"I nostri risultati suggeriscono che la riduzione dello sforzo è importante non solo perché le persone valutano il tempo e l'energia spesi, ma perché spendere meno sforzo attraverso l'esternalizzazione segnala percezioni di secondo ordine che le persone sono meno autentiche e si prendono meno cura del compito," hanno scritto gli autori.
Hanno aggiunto un approfondimento sul meccanismo: "la riduzione dello sforzo derivante dall'esternalizzazione di compiti socio-relazionali all'AI segnala che il risultato è meno autenticamente proprio e che la persona si prende meno cura del compito."
Strumenti come ChatGPT rendono questi compiti più rapidi e facili. Ma questa efficienza ha un costo. Danneggia la percezione del carattere morale dell'utente e indebolisce i legami sociali percepiti.
Man mano che l'AI gestisce comunicazioni più intime, tali percezioni potrebbero danneggiare le relazioni nel mondo reale. Il lavoro solleva domande più ampie su cosa conti come autentico nelle interazioni quotidiane.
Lo studio, intitolato "Percezioni negative dell'esternalizzazione all'intelligenza artificiale," è stato scritto da Scott Claessens, Pierce Veitch e Jim A.C. Everett. È apparso in Computers in Human Behavior.
Leggi di più:

Principali
Ranking
Preferiti
