モデルの幻覚を減らすための私のトップ5のコツ: 1. 情報収集の際、AIに情報源を示すように指示し、データ収集と結論の導きを分けること 2. AIが結論を出すときは、それが歴史的データに基づくのか、統計的推論に基づくのか、それとも純粋な言語推論に基づくのかを問う 3. 少なくとも2つのAIモデルを使って結果を照合する - 最近、LLM評議会の仕組みを読んだ。モデル同士がより良い答えを得るために議論する仕組み(非常に興味深いアイデアですが、まだ自分でテストする必要があります) 4. 立場の両極端について議論を求め、次に自分の立場を決める 5. AIに質問する:今言ったことが間違っていると仮定する - どこが最も間違っている可能性が高いのか? AIは強力ですが、最終モデルはあなたの判断に変わりません。