トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AKは、LLM(大規模言語モデル)と話す際には「あなた」を使わずに、まずこの分野の専門家が誰かを尋ね、その後AIがその専門家をシミュレートして質問に答えさせるべきだと提案しています。そうすればより良い結果が得られます。
アンドレイ・カルパシーも2年以上前のState of GPTで似たようなことを言っていました。 (レビュー参照)
アンドレイ・カルパティ:
大規模言語モデル(LLM)を生きた「エンティティ」と考えるのではなく、超強力な「シミュレーター」として考えてください。
例えば、あるテーマを深く掘り下げたいときは、以下のような質問はしないでください。
「xyzについてどう思う?」
なぜなら「あなた」というものは存在しないからです。
次回は別の質問をしてみてください。
「もしxyzのテーマを探るなら、専門家やステークホルダーなど、誰が最適なグループでしょうか? 彼らは何と言うだろう? ”
大規模な言語モデルは、指先先で多様な視点を導き、シミュレーションすることができます。 しかし、それは私たち人間のように、長い「思考」やxyzの発動を経て自分たちの見解を形成したものとは異なります。
もし「あなた」という言葉を使って質問を強制すると、モデルはデータの微調整に基づいて暗黙の「パーソナリティ埋め込みベクトル」を呼び出し、そのパーソナリティを装ってあなたの答えをシミュレートします。 (注:簡単に言えば、「あなた」と尋ねると、AIは「公の顔」という仮面をかぶって、訓練データの中で最も一般的な回答パターンに基づいてあなたとマッチングするだけで、自己認識のある人格を実際に生成するわけではありません。) )
もちろん、そうしていいし、答えは必ずわかる。 しかし、多くの人はこれを「AIに何を考えているか尋ねる」と単純に考え、謎だと思っていることが多いと感じます。 実際、シミュレーションの仕組みを理解すれば、この謎は解けます。
トップ
ランキング
お気に入り

