ユーザーとAIモデル提供者間で匿名ルーティングのレイヤーを作り、プライバシーを高めるという話が多く語られています。 しかし、私が本当に理解できないのはこれです:一般的なLLMはすでにパターンの特定や匿名性の除去に非常に優れているということです。 なぜ彼らが私たちを素早く再接続できないと思わなければならないのでしょうか? たとえ複数のアカウントからの単一のプロンプトが「匿名」にAPIにルーティングされていても、モデルによる一発の再識別は容易に可能だと思います。 特にユーザーが同じコードやプロジェクト、同じ環境で作業している場合、ほぼ確実に当てはまります。 結論としては、Torブラウザを使ってウェブサイトから匿名だと思い込みながら、セッション間でクッキーを保持するようなものです。 大規模なモデルによる再リンクに対して本当に耐性を持つために、コンテキストに対してかなりの手間をかけなければならないことは、非常に大きな非効率のレベルに思えます。