分散型ストレージはAIモデルの配布の経済性を変えました。 中央集権型モデルホスティングコストは使用量に応じて線形的に増加します。すべての推論リクエストは同じサーバーに到達し、帯域幅コストが複合的に増加し、プロバイダーはAPI価格を通じてそのコストをユーザーに転嫁します。だからこそ、GPT-4のAPIコールはコストがかかるのです。つまり、誰かが大規模に計算と帯域幅の両方に費用を負担しているのです。 0GのDAレイヤーのような分散型ストレージでは、モデルの重みがノード間に分散されます。ユーザーは中央サーバーを叩くのではなく、最寄りのノードから取得します。帯域幅のコストはネットワーク全体に分散します。突然、70Bパラメータモデルのホスティングは月額6桁のインフラを必要としなくなりました。 これは単にAIのコストを下げるだけではありません。これにより、頻繁に更新されるモデル、地域バリアントを持つモデル、ユーザーが初期ダウンロード後にローカルで実行できるモデルなど、まったく新しい流通モデルが実現可能になります。制約はモデルの品質ではなく、分布経済学でした。