Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Die Verwendung von AI zur Erstellung von Hochzeitsgelübden, Reden oder persönlichen Nachrichten könnte dazu führen, dass Sie weniger aufrichtig und fürsorglich erscheinen, so eine neue Studie | Computers in Human Behavior
Menschen, die sich auf AI verlassen, um herzliche Nachrichten wie Hochzeitsgelübde oder Liebesbriefe zu verfassen, wirken oft in den Augen anderer weniger aufrichtig und fürsorglich.
Eine neue Studie zeigt, dass die Hinwendung zu künstlicher Intelligenz für diese persönlichen Aufgaben negative Urteile hervorruft. Beobachter sehen die Person als weniger moralisch und authentisch. Sie glauben auch, dass die Person weniger um den Empfänger kümmert. Sogar die von AI erstellte Nachricht selbst scheint von geringerer Qualität und Wert zu sein.
Die Forscher führten sechs vorregistrierte Experimente mit 3.935 Teilnehmern aus Großbritannien durch. Sie zeigten Szenarien, in denen jemand eine Aufgabe entweder ganz alleine oder mit Unterstützung von AI erledigte. Die Teilnehmer bewerteten dann den Charakter, die Motive, die Authentizität und den Wert der Arbeit der Person.
Das Muster war deutlich erkennbar. Menschen betrachteten diejenigen, die AI verwendeten, strenger. Diese Kritik intensivierte sich bei sozial-relationalen Aufgaben, wie dem Schreiben von Entschuldigungsbriefen, Reden oder persönlichen Notizen an geliebte Menschen. Praktische Aufgaben lösten mildere Reaktionen aus.
Die negative Reaktion blieb stark, selbst als die Person offen AI als "kollaboratives Werkzeug" beschrieb. Die Autoren weisen auf den reduzierten Aufwand als das Kernproblem hin. Weniger persönliche Zeit und Energie zu investieren, signalisiert Unauthentizität. Es deutet darauf hin, dass der Schreiber nicht wirklich investiert ist.
"Unsere Ergebnisse deuten darauf hin, dass reduzierter Aufwand wichtig ist, nicht nur weil Menschen die aufgewendete Zeit und Energie schätzen, sondern weil weniger Aufwand durch Outsourcing zweite Wahrnehmungen signalisiert, dass Menschen weniger authentisch sind und weniger um die Aufgabe kümmern," schrieben die Autoren.
Sie fügten Einblicke in den Mechanismus hinzu: "Der reduzierte Aufwand beim Outsourcing sozial-relationaler Aufgaben an AI signalisiert, dass das Ergebnis weniger authentisch das eigene ist und dass die Person weniger um die Aufgabe kümmert."
Werkzeuge wie ChatGPT machen diese Aufgaben schneller und einfacher. Aber diese Effizienz hat ihren Preis. Sie schädigt die Ansichten über den moralischen Charakter des Nutzers und schwächt die wahrgenommenen sozialen Bindungen.
Da AI zunehmend intimere Kommunikationen übernimmt, könnten solche Wahrnehmungen reale Beziehungen schädigen. Die Arbeit wirft größere Fragen darüber auf, was in täglichen Interaktionen als authentisch gilt.
Die Studie mit dem Titel "Negative Wahrnehmungen des Outsourcings an künstliche Intelligenz" wurde von Scott Claessens, Pierce Veitch und Jim A.C. Everett verfasst. Sie erschien in Computers in Human Behavior.
Mehr lesen:

Top
Ranking
Favoriten
