Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Usar IA para escribir votos de boda, discursos o mensajes personales puede hacer que parezcas menos sincero y cariñoso, según un nuevo estudio | Computers in Human Behavior
Las personas que dependen de la IA para crear mensajes emotivos, como votos de boda o cartas de amor, a menudo parecen menos sinceras y cariñosas a los ojos de los demás.
Un nuevo estudio revela que recurrir a la inteligencia artificial para estas tareas personales provoca juicios negativos. Los observadores ven a la persona como menos moral y auténtica. También creen que el individuo se preocupa menos por el destinatario. Incluso el mensaje creado por IA parece de menor calidad y valor.
Los investigadores realizaron seis experimentos pre-registrados con 3,935 participantes de Gran Bretaña. Mostraron escenarios donde alguien completó una tarea ya sea completamente por sí mismo o con la asistencia de IA. Luego, los participantes evaluaron el carácter, los motivos, la autenticidad y el valor del trabajo de la persona.
El patrón se destacó claramente. Las personas veían a aquellos que usaban IA de manera más dura. Esta crítica se intensificó para tareas socio-relacionales, como escribir cartas de disculpa, discursos o notas personales a seres queridos. Las tareas prácticas provocaron reacciones más suaves.
La reacción negativa se mantuvo fuerte incluso cuando la persona describía abiertamente la IA como una "herramienta colaborativa". Los autores señalan que el esfuerzo reducido es el problema central. Pasar menos tiempo y energía personal señala inautenticidad. Sugiere que el escritor carece de una inversión genuina.
"Nuestros resultados sugieren que el esfuerzo reducido es importante no solo porque las personas valoran el tiempo y la energía gastados, sino porque gastar menos esfuerzo a través de la externalización señala percepciones de segundo orden que las personas son menos auténticas y se preocupan menos por la tarea," escribieron los autores.
Añadieron una visión sobre el mecanismo: "el esfuerzo reducido al externalizar tareas socio-relacionales a la IA señala que el resultado es menos auténticamente propio y que la persona se preocupa menos por la tarea."
Herramientas como ChatGPT hacen que estas tareas sean más rápidas y fáciles. Pero esta eficiencia tiene un costo. Daña las percepciones del carácter moral del usuario y debilita los lazos sociales percibidos.
A medida que la IA maneja más comunicaciones íntimas, tales percepciones podrían dañar las relaciones en el mundo real. El trabajo plantea preguntas más grandes sobre lo que cuenta como auténtico en las interacciones diarias.
El estudio, titulado "Percepciones negativas de la externalización a la inteligencia artificial," fue escrito por Scott Claessens, Pierce Veitch y Jim A.C. Everett. Apareció en Computers in Human Behavior.
Lee más:

Parte superior
Clasificación
Favoritos
