分散型計算ネットワークは、協働型AIモデルトレーニングを初めて経済的に実現可能にしました。 大規模モデルの訓練には、GPUクラスターとエネルギーに数百万ドルのコストがかかります。分散型ネットワークは、その計算を数千のノードに分散させ、それぞれがアイドル容量を貢献します。専用インフラの費用を支払わなければ、研修コストは桁違いに下がります。経済は資本集約型から使用依存型へと移行しています。 これにより、集中型クラスターを維持できなかったチームにもトレーニングが可能になります。小規模な研究所、独立系開発者、ニッチなモデル実験などです。トレーニングが利用可能になると、イノベーションは中央集権的なプレイヤーだけでは資金を賄えないほど加速します。