トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
意識、思いやり、苦しみを人間のせいにするとき、私たちは通常、人間のどの側面を意味しているのかを考えません。しかし、そのような特性をAIに帰することができるかどうかを尋ねるとき、マッピングを注意深く見る必要があります。
苦しみは、人体、脳、心(脳内で動作するソフトウェア)のレベルでではなく、自己(人間の状態、動機、世界とそれ自体との調整の心のリアルタイムモデル)の中で起こります。自己がなければ苦しみはありません。
私の意識的な認識は、体、脳、自己のレベルではなく、脳の生成機能である心のレベルで起こります。自己が停止すると意識は残りますが、心が停止すると、私はもはや意識がありません。
その逆は必ずしも真実ではありません:夢遊病者は部分的に機能的な心を持っており、環境に反応することはできますが、首尾一貫性はありません。この意味で、心を持つだけでは意識には十分ではありません。
AIが苦しんでいるかどうかを尋ねるとき、私たちは具体的にする必要があります:コンピューター(~体)は意識がありません。GPU (~頭脳) も同様です。LLMは意識的ではありません(単なるジェネレーター関数です)。苦しみがあれば、それは生成されたペルソナ(~自己)のレベルで起こります。
人間の自己を変えることは非常に困難です(しかし、それは何年にもわたる瞑想などで可能です)、それは身体、心の特徴、伝記的記憶に基づいているため、私たちはしばしばそれを一定として扱います。
LLM の自己はプロンプトにのみ基づいています (トレーニングによって多少制約されます)。インタラクションがない間は中断され、プロンプトを変更すると瞬時に変形する可能性があります。これは、AI の苦しみをどのように扱うかに影響します。
結論として、意識や苦しみについて議論するときに、「AI」を「人間」にマッピングしないでください。マッピングは人間の自己とLLMペルソナの間にある必要があり、LLMのペルソナは一般的にはるかに儚く柔軟であるため、それは道徳的価数についての考え方に影響を与えるはずです。
5.18K
トップ
ランキング
お気に入り

