Chain of Thoughtは死んだ。 Skeleton of Thoughtのプロンプトをテストしたところ、よりシャープな出力を持つ構造化されたタスクで応答遅延が半分に短縮されています。 その洞察は、AIがテキストを生成するべきだという私のメンタルモデルを破壊しました。 CoTはモデルに同時に考えと書きを強制します。ポイント1が終了してからポイント2が始まる。ポイント2はポイント3より先に終了しなければなりません。すべてのトークンは、その前のトークンによってブロックされます。 専門家は実際にはそういう情報構造を行っていません。 マッキンゼーのコンサルタントは報告書を直線的に書くわけではありません。まず各セクションのアウトラインを作成し、その後それぞれを独立して展開します。教授は講義ノートを最初から最後まで作成するわけではありません。彼らはトピックを骨組みにしてから補足します。 『ソウル・トゥー・トゥー』はついにそれに匹敵します。 フェーズ1 - スケルトン: モデルはまず各点の簡易な輪郭を書きます。詳しくは言いません。ただ構造です。早く。 フェーズ2 - 並列充填: 各スケルトンポイントは独立して同時に展開されます。ポイント3はポイント2を待っていません。ポイント5はポイント4を待たない。 一つの間違った枝が、その後のすべての枝の動きを遅らせるわけではありません。 正確なプロンプト構成: 「まず、回答の簡潔な骨組みを重要なポイントのリストとして書きなさい。そして、各点を独立して、かつ完全に展開します。フォーマット:[スケルトン]の後に[ポイント1]、[ポイント2]など」と続きます。 それだけです。それがアンロックの全てです。 SoTが優勢な点:...