Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Usar IA para escribir votos matrimoniales, discursos o mensajes personales podría hacer que parezcas menos sincero y atento, según un nuevo estudio | Ordenadores en el comportamiento humano
Las personas que dependen de la IA para crear mensajes sinceros, como votos matrimoniales o cartas de amor, a menudo parecen menos sinceras y menos atentas ante los demás.
Un nuevo estudio revela que recurrir a la inteligencia artificial para estas tareas personales provoca juicios negativos. Los observadores ven a la persona como menos moral y auténtica. También creen que la persona se preocupa menos por el receptor. Incluso el mensaje creado por la IA parece de menor calidad y valor.
Los investigadores realizaron seis experimentos preregistrados con 3.935 participantes británicos. Mostraban escenarios en los que alguien completaba una tarea, ya fuera completamente solo o con ayuda de la IA. Los participantes valoraron entonces el carácter de la persona, sus motivos, su autenticidad y el valor de la obra.
El patrón destacaba claramente. La gente veía a quienes usaban IA con más dureza. Esta crítica se intensificó para tareas sociorelacionales, como escribir cartas de disculpa, discursos o notas personales a seres queridos. Las tareas prácticas provocaban reacciones más suaves.
La reacción negativa se mantuvo firme incluso cuando la persona describió abiertamente la IA como una "herramienta colaborativa". Los autores señalan la reducción del esfuerzo como el problema central. Dedicar menos tiempo y energía personal indica falta de autenticidad. Sugiere que al escritor le falta una inversión genuina.
"Nuestros resultados sugieren que reducir el esfuerzo es importante no solo porque la gente valora el tiempo y la energía invertidos, sino porque dedicar menos esfuerzo a través de la externalización indica percepciones de segundo orden de que la gente es menos auténtica y se preocupa menos por la tarea", escribieron los autores.
Añadieron una visión del mecanismo: "el esfuerzo reducido de externalizar tareas socio-relacionales a la IA indica que el resultado es menos auténticamente propio y que a la persona le importa menos la tarea."
Herramientas como ChatGPT hacen que estas tareas sean más rápidas y sencillas. Pero esta eficiencia tiene un coste. Perjudica la percepción del carácter moral del usuario y debilita los lazos sociales percibidos.
A medida que la IA gestiona comunicaciones más íntimas, tales percepciones podrían dañar las relaciones en el mundo real. El trabajo plantea preguntas más profundas sobre qué se considera auténtico en las interacciones diarias.
El estudio, titulado "Percepciones negativas de la externalización a la inteligencia artificial", fue escrito por Scott Claessens, Pierce Veitch y Jim A.C. Everett. Apareció en Computers in Human Behavior.
Leer más:

Populares
Ranking
Favoritas
